Skip navigation

DSpace JSPUI

DSpace preserves and enables easy and open access to all types of digital content including text, images, moving images, mpegs and data sets

Learn More
DSpace logo
English
中文
  • Browse
    • Communities
      & Collections
    • Publication Year
    • Author
    • Title
    • Subject
    • Advisor
  • Search TDR
  • Rights Q&A
    • My Page
    • Receive email
      updates
    • Edit Profile
  1. NTU Theses and Dissertations Repository
  2. 電機資訊學院
  3. 資訊工程學系
Please use this identifier to cite or link to this item: http://tdr.lib.ntu.edu.tw/jspui/handle/123456789/79985
Title: 利用預訓練語言遮罩模型探索語意相近用詞於換句話說生成之研究
Utilizing BERT to Explore Semantically Similar Words for Paraphrase Generation
Authors: Wei-Fan Chang
張葳凡
Advisor: 許永真(Jung-Jen Hsu)
Keyword: 換句話說生成,預訓練語言模型,自然語言處理,類神經網路,
Paraphrase Generation,BERT,Natural Language Processing,Neural Network,
Publication Year : 2021
Degree: 碩士
Abstract: 產生換句話說的句子是重要的自然語言處理任務,生成的句子必須傳達相同的意思,但是使用不同用詞。由於近期預訓練語言模型有強大的自然語言理解能力,這篇論文中我們提出有效利用BERT 模型的方法來探索語意相近的用詞,使用在換句話說句子的生成中。雖然利用BERT 做文字代換是常見的資料增強方法,但在換句話說的任務上帶來的進步幅度是有限的,因此我們不直接從分佈中隨機抽樣詞來做代換。由於一些相關研究的啟發,我們提出的方法將BERT 生成的分佈作為潛在的向量,整合在在Transformer Decoder 的注意力機制中。實驗的結果顯示我們提出的方法的BLEU 分數比現階段表現最好的模型更高,比起基準模型也得到更好的BLEU 與Rouge 分數,透過分析我們更觀察到提出的模型使用了訓練資料中沒有的詞彙代換來生成換句話說的句子。因此透過利用BERT 所學到的知識,我們能生成以量化的指標衡量下,表現更好的換句話說。
URI: http://tdr.lib.ntu.edu.tw/jspui/handle/123456789/79985
DOI: 10.6342/NTU202101638
Fulltext Rights: 同意授權(全球公開)
Appears in Collections:資訊工程學系

Files in This Item:
File SizeFormat 
U0001-2107202117333400.pdf1.6 MBAdobe PDFView/Open
Show full item record


Items in DSpace are protected by copyright, with all rights reserved, unless otherwise indicated.

社群連結
聯絡資訊
10617臺北市大安區羅斯福路四段1號
No.1 Sec.4, Roosevelt Rd., Taipei, Taiwan, R.O.C. 106
Tel: (02)33662353
Email: ntuetds@ntu.edu.tw
意見箱
相關連結
館藏目錄
國內圖書館整合查詢 MetaCat
臺大學術典藏 NTU Scholars
臺大圖書館數位典藏館
本站聲明
© NTU Library All Rights Reserved