Skip navigation

DSpace

機構典藏 DSpace 系統致力於保存各式數位資料(如:文字、圖片、PDF)並使其易於取用。

點此認識 DSpace
DSpace logo
English
中文
  • 瀏覽論文
    • 校院系所
    • 出版年
    • 作者
    • 標題
    • 關鍵字
  • 搜尋 TDR
  • 授權 Q&A
    • 我的頁面
    • 接受 E-mail 通知
    • 編輯個人資料
  1. NTU Theses and Dissertations Repository
  2. 電機資訊學院
  3. 資訊工程學系
請用此 Handle URI 來引用此文件: http://tdr.lib.ntu.edu.tw/jspui/handle/123456789/56985
標題: 以前後文增進主題模型之效能
Use Context Information to Improve the Performance of Latent
Dirichlet Allocation
作者: Che-Yi Lin
林哲毅
指導教授: 鄭卜壬
關鍵字: 主題模型,隱含狄利克雷分布,前後文,意義向量,機器學習,隱含主題,
topic model,latent dirichlet allocation,context,concept vector,machine learning,latent topic,
出版年 : 2014
學位: 碩士
摘要: 隱含狄利克雷分布模型是一種常被用來尋找文件中隱含主題的主題
模型,在一些情況之下,例如︰文件數目不足的文本或者是須要前後
文才能判斷意思的字,傳統的隱含狄利克雷分布模型會得到比較差的
結果。造成這個問題的主因是因為一個字可以包含有多種意思,不看
前後文的情況之下,很難分辨一個字真正的意思。在一些之前的研究
中,他們打破原本隱含狄利克雷分布模型中對於字是彼此獨立的假設
並嘗試著把字與字之間的關係加進他們所提的主題模型。在這篇研究
中,我們提出了一個新的模型-包含前後文隱含狄利克雷分布模型。
首先,我們的模型會將原本的文本轉成一堆帶有前後文資訊的「意義向量」,並找出這些向量彼此之間的等價關係;接著我們主題模型會在這些向量與他們之間的等價關係中找出原本文件隱含主題。包含前後文隱含狄利克雷分布模型不僅可以解決傳統的隱含狄利克雷分布模型所遇到的問題,還可以簡單的被平行及擴充。就算文本的數目不足,只要額外給予一些字與字之間的關係包含前後文隱含狄利克雷分布模型仍然可以得到不錯的結果。我們在20Newsgroup 這個文本上做了許多不同的實驗來驗證我們模型的效能,這些實驗數據顯示了我們模型的效能的確比隱原本的狄利克雷分布模型要來的好。最後,我們也列出了兩個模型在同一個文本中找出來的隱含主題。
Latent Dirichlet Allocation (LDA), is a wildly used topic model for discovering the topics in documents, however it suffers from many problems like lack of dependency between words and sparse data. The main cause of these problems is the word-sense disambiguation in the natural language. In previous works, they ignore the assumption of 'bag of words' and add the dependency between each words. However, we use different approach. In order to solve these problems, we proposed a topic model called context LDA (CLDA) model.
The CLDA model first build up concept vectors with context information at each position and use these vectors to distinguish the equivalent relationships between word, then we present a topic model which can take these relationship as input and model the words into latent topics. The CLDA model can not only overcome the word disambiguation problem but also be easily parallelized and extended. With some extra knowledge and slight modification, we show that our model can solve the sparse data problem easily. We conduct several experiments based on 20Newsgroup dataset; in the results we show that our model can actually improve the performance of the original LDA and fix the imbalance topic problem via using the vectors and equivalent relationships. Finally we show the examples of latent topics produced by the LDA model and our model.
URI: http://tdr.lib.ntu.edu.tw/jspui/handle/123456789/56985
全文授權: 有償授權
顯示於系所單位:資訊工程學系

文件中的檔案:
檔案 大小格式 
ntu-103-1.pdf
  目前未授權公開取用
468.58 kBAdobe PDF
顯示文件完整紀錄


系統中的文件,除了特別指名其著作權條款之外,均受到著作權保護,並且保留所有的權利。

社群連結
聯絡資訊
10617臺北市大安區羅斯福路四段1號
No.1 Sec.4, Roosevelt Rd., Taipei, Taiwan, R.O.C. 106
Tel: (02)33662353
Email: ntuetds@ntu.edu.tw
意見箱
相關連結
館藏目錄
國內圖書館整合查詢 MetaCat
臺大學術典藏 NTU Scholars
臺大圖書館數位典藏館
本站聲明
© NTU Library All Rights Reserved