Skip navigation

DSpace

機構典藏 DSpace 系統致力於保存各式數位資料(如:文字、圖片、PDF)並使其易於取用。

點此認識 DSpace
DSpace logo
English
中文
  • 瀏覽論文
    • 校院系所
    • 出版年
    • 作者
    • 標題
    • 關鍵字
    • 指導教授
  • 搜尋 TDR
  • 授權 Q&A
    • 我的頁面
    • 接受 E-mail 通知
    • 編輯個人資料
  1. NTU Theses and Dissertations Repository
  2. 電機資訊學院
  3. 資訊網路與多媒體研究所
請用此 Handle URI 來引用此文件: http://tdr.lib.ntu.edu.tw/jspui/handle/123456789/85492
標題: 基於改進式GPT-2的新聞標題生成
An Improved GPT-2 Model for News Title Generation
作者: XIAOYU SI
斯曉宇
指導教授: 鄭卜壬(Pu-Jen Cheng)
關鍵字: 自然語言處理,標題生成,GPT-2,注意力遮罩,上下文學習,
Natural language processing,Title Generation,GPT-2,Attention Mask,Context Learning,
出版年 : 2022
學位: 碩士
摘要: 數位資訊時代人們習慣於從網路中便捷地獲取即時新聞資訊。當前社群媒體中許多短篇新聞為了達到吸引眼球的目的會出現題不對文的問題,使得讀者很難通過標題直觀了解感興趣的新聞內容。 近年來,隨著深度學習的興起,針對新聞標題生成任務的研究也逐漸從基於RNN的方法發展到基於Transformer的方法。然而,現有的工作中仍然存在以下問題:首先,我們發現很多模型對新聞內容的理解不足,很難最大化利用內容中的有效資訊。其次,由於一篇新聞中往往有多個重點,當前許多模型不一定有能力捕獲那些適合作為標題的相關資訊。針對以上兩點問題,本研究以GPT-2模型為基礎架構對前述兩點問題提出了相的應改進方法並設計了一個兩階段訓練過程。在預訓練階段,我們通過重新設計注意力遮罩解決文章資訊利用不足的問題;在微調階段,模型將同時進行上下文和語言模型的學習,進一步引導模型關注文章內容中與標題最相關的資訊。 最後在實驗部分,我們比較了基於注意力的序列到序列生成模型、指針神經網路、基礎GPT-2模型及本研究提出的改進式GPT-2模型在標題生成任務上的表現差異。結果通過機器評估與人工評價均驗證了改進式GPT-2模型有能力生成符合文意且品質較高的新聞標題。
With the rapid development of the Internet, people are accustomed to obtain instant news information conveniently from their social software. Many short news in social media tend to use eye-catching title which leads to inconsistency with the facts. In the past few years, neural text summarization methods has been developed from RNN-based to Transformer-based methods. However, some of the existing works still have the following problems: (1) These models usually suffer from insufficient of understanding content information which makes the model hardly to maximize performance. (2) There are often multiple key points in an article, and many current models are not necessarily capable of capturing relevant information suitable for the title. In view of the above two problems, we improved the original GPT-2 model architecture and designs a two-stage training scheme. In pretrain phase, we re-designed attention mask trying to improve content understanding without disclosure of title information. In fine-tune phase, the model was designed to learn both context and language prediction. Finally, We compared the performance of the RNN-based Seq2Seq model, Pointer Generator, basis GPT-2 model and improved GPT-2 model in the title generation task. Both machine and human evaluation verified that the improved GPT-2 model has the ability to generate a high-quality news title.
URI: http://tdr.lib.ntu.edu.tw/jspui/handle/123456789/85492
DOI: 10.6342/NTU202201398
全文授權: 同意授權(全球公開)
電子全文公開日期: 2022-07-15
顯示於系所單位:資訊網路與多媒體研究所

文件中的檔案:
檔案 大小格式 
U0001-1107202215074200.pdf2.06 MBAdobe PDF檢視/開啟
顯示文件完整紀錄


系統中的文件,除了特別指名其著作權條款之外,均受到著作權保護,並且保留所有的權利。

社群連結
聯絡資訊
10617臺北市大安區羅斯福路四段1號
No.1 Sec.4, Roosevelt Rd., Taipei, Taiwan, R.O.C. 106
Tel: (02)33662353
Email: ntuetds@ntu.edu.tw
意見箱
相關連結
館藏目錄
國內圖書館整合查詢 MetaCat
臺大學術典藏 NTU Scholars
臺大圖書館數位典藏館
本站聲明
© NTU Library All Rights Reserved