Skip navigation

DSpace

機構典藏 DSpace 系統致力於保存各式數位資料(如:文字、圖片、PDF)並使其易於取用。

點此認識 DSpace
DSpace logo
English
中文
  • 瀏覽論文
    • 校院系所
    • 出版年
    • 作者
    • 標題
    • 關鍵字
    • 指導教授
  • 搜尋 TDR
  • 授權 Q&A
    • 我的頁面
    • 接受 E-mail 通知
    • 編輯個人資料
  1. NTU Theses and Dissertations Repository
  2. 電機資訊學院
  3. 資訊工程學系
請用此 Handle URI 來引用此文件: http://tdr.lib.ntu.edu.tw/jspui/handle/123456789/81331
標題: 使用深度學習的FAQ聊天機器人:實作與比較
Construction of Frequently Asked Questions Chatbot with Deep Learning : Implementation and Comparison
作者: Yung-Lin Li
李永霖
指導教授: 張智星(Jyh-Shing Jang)
關鍵字: 常見問題集,聊天機器人,問題相似度,問題回答,BERT,
FAQ,Chatbot,Question Similarity,Question Answering,BERT,
出版年 : 2021
學位: 碩士
摘要: "常見問題集(frequently asked questions, FAQ)是在業務場景中客戶最常問的問題集合,本篇論文在建立一有效回答常見問題集的聊天機器人(chatbot)。首先,問題的答案經常會隨著時間而改變,為了語料的穩定性和模型建立的準確性,我們將回答 FAQ 的問題轉變為從候選中檢索出最合適的匹配對象。接著,我們使用 term frequency–inverse document frequency (TFIDF)作為聊天機器人檢索匹配對象的根據,我們發現到 TFIDF 並不能識別客戶對同一個標準問題所產生出的不同測試題(query)。所以我們提出使用 BERT 來提升模型識別問題語義的能力,我們探討了使用不同比對模式來微調 BERT的情況,我們的結果超越了傳統上使用 BERT 對 query 進行文本分類的結果。同時我們比較text classification with BERT、cross-encoder BERT、Siamese BERT,在小資料量資料集例如:公司常見問題集,準確率從text classification with BERT 的74.20%和Siamese BERT的74.50%提升到cross-encoder BERT的81.00%。但是在大資料量資料集例如:Yahoo! Answers,text classification with BERT則有最高的準確率。另外,我們使用了不同的資料擴增方法,reverse pair和繁簡增生在cross-encoder BERT上都能提高準確率。"
URI: http://tdr.lib.ntu.edu.tw/jspui/handle/123456789/81331
DOI: 10.6342/NTU202101558
全文授權: 同意授權(限校園內公開)
顯示於系所單位:資訊工程學系

文件中的檔案:
檔案 大小格式 
U0001-1907202110333700.pdf
授權僅限NTU校內IP使用(校園外請利用VPN校外連線服務)
3.63 MBAdobe PDF
顯示文件完整紀錄


系統中的文件,除了特別指名其著作權條款之外,均受到著作權保護,並且保留所有的權利。

社群連結
聯絡資訊
10617臺北市大安區羅斯福路四段1號
No.1 Sec.4, Roosevelt Rd., Taipei, Taiwan, R.O.C. 106
Tel: (02)33662353
Email: ntuetds@ntu.edu.tw
意見箱
相關連結
館藏目錄
國內圖書館整合查詢 MetaCat
臺大學術典藏 NTU Scholars
臺大圖書館數位典藏館
本站聲明
© NTU Library All Rights Reserved