Skip navigation

DSpace

機構典藏 DSpace 系統致力於保存各式數位資料(如:文字、圖片、PDF)並使其易於取用。

點此認識 DSpace
DSpace logo
English
中文
  • 瀏覽論文
    • 校院系所
    • 出版年
    • 作者
    • 標題
    • 關鍵字
    • 指導教授
  • 搜尋 TDR
  • 授權 Q&A
    • 我的頁面
    • 接受 E-mail 通知
    • 編輯個人資料
  1. NTU Theses and Dissertations Repository
  2. 電機資訊學院
  3. 資訊工程學系
請用此 Handle URI 來引用此文件: http://tdr.lib.ntu.edu.tw/jspui/handle/123456789/79985
標題: 利用預訓練語言遮罩模型探索語意相近用詞於換句話說生成之研究
Utilizing BERT to Explore Semantically Similar Words for Paraphrase Generation
作者: Wei-Fan Chang
張葳凡
指導教授: 許永真(Jung-Jen Hsu)
關鍵字: 換句話說生成,預訓練語言模型,自然語言處理,類神經網路,
Paraphrase Generation,BERT,Natural Language Processing,Neural Network,
出版年 : 2021
學位: 碩士
摘要: 產生換句話說的句子是重要的自然語言處理任務,生成的句子必須傳達相同的意思,但是使用不同用詞。由於近期預訓練語言模型有強大的自然語言理解能力,這篇論文中我們提出有效利用BERT 模型的方法來探索語意相近的用詞,使用在換句話說句子的生成中。雖然利用BERT 做文字代換是常見的資料增強方法,但在換句話說的任務上帶來的進步幅度是有限的,因此我們不直接從分佈中隨機抽樣詞來做代換。由於一些相關研究的啟發,我們提出的方法將BERT 生成的分佈作為潛在的向量,整合在在Transformer Decoder 的注意力機制中。實驗的結果顯示我們提出的方法的BLEU 分數比現階段表現最好的模型更高,比起基準模型也得到更好的BLEU 與Rouge 分數,透過分析我們更觀察到提出的模型使用了訓練資料中沒有的詞彙代換來生成換句話說的句子。因此透過利用BERT 所學到的知識,我們能生成以量化的指標衡量下,表現更好的換句話說。
URI: http://tdr.lib.ntu.edu.tw/jspui/handle/123456789/79985
DOI: 10.6342/NTU202101638
全文授權: 同意授權(全球公開)
顯示於系所單位:資訊工程學系

文件中的檔案:
檔案 大小格式 
U0001-2107202117333400.pdf1.6 MBAdobe PDF檢視/開啟
顯示文件完整紀錄


系統中的文件,除了特別指名其著作權條款之外,均受到著作權保護,並且保留所有的權利。

社群連結
聯絡資訊
10617臺北市大安區羅斯福路四段1號
No.1 Sec.4, Roosevelt Rd., Taipei, Taiwan, R.O.C. 106
Tel: (02)33662353
Email: ntuetds@ntu.edu.tw
意見箱
相關連結
館藏目錄
國內圖書館整合查詢 MetaCat
臺大學術典藏 NTU Scholars
臺大圖書館數位典藏館
本站聲明
© NTU Library All Rights Reserved