Skip navigation

DSpace

機構典藏 DSpace 系統致力於保存各式數位資料(如:文字、圖片、PDF)並使其易於取用。

點此認識 DSpace
DSpace logo
English
中文
  • 瀏覽論文
    • 校院系所
    • 出版年
    • 作者
    • 標題
    • 關鍵字
  • 搜尋 TDR
  • 授權 Q&A
    • 我的頁面
    • 接受 E-mail 通知
    • 編輯個人資料
  1. NTU Theses and Dissertations Repository
  2. 電機資訊學院
  3. 資訊網路與多媒體研究所
請用此 Handle URI 來引用此文件: http://tdr.lib.ntu.edu.tw/jspui/handle/123456789/51400
標題: 在未標記資料上利用增強式學習解決影響力最大化之問題
Exploiting Reinforcement-Learning for Influence Maximization without Human-Annotated Data
作者: Yen-Hua Huang
黃彥樺
指導教授: 林守德(Shou-de Lin)
關鍵字: 增強式學習,社群網路,訊息傳播最大化,機器學習,貪婪演算法,
Reinforcement-Learning,Social network,Influence Maximization,Machine learning,Greedy Algorithm,
出版年 : 2015
學位: 碩士
摘要: 在影響力最大化的研究上近幾十年間已有大量以策略導向進行選擇的方式之研究。在其中已證明貪婪演算法(Greedy Algorithm)能夠達到至少涵蓋63%以上的最大擴散範圍,因此是個非常強大且有競爭力的演算法。在此我們提出以學習為主框架的方式來解決影響力最大化問題,目標是超越貪婪演算法的影響範圍和效率。我們提出的增強式學習架構與分類器相結合的模型,不僅減輕了資料上所需標記的訓練數據,而且還允許逐步發展的影響最大化的策略,能夠在每個狀況下找出其適合的策略,最後的表現不論在執行時間和影響範圍都打敗貪婪演算法。
Strategies to choose nodes on a social network to maximize the total influence has been studied for decades. Studies have shown that the greedy algorithm is a competitive strategy and it has been proved to cover at least 63% of the optimal spread. Here we propose a learning-based framework for influence maximization aiming at outperforming the greedy algorithm in terms of both coverage and efficiency. The proposed reinforcement learning framework combining with a classification model not only alleviates the requirement of the labelled training data, but also allows the influence maximization strategy to be developed gradually and eventually outperforms a basic greedy approach.
URI: http://tdr.lib.ntu.edu.tw/jspui/handle/123456789/51400
全文授權: 有償授權
顯示於系所單位:資訊網路與多媒體研究所

文件中的檔案:
檔案 大小格式 
ntu-104-1.pdf
  目前未授權公開取用
1.11 MBAdobe PDF
顯示文件完整紀錄


系統中的文件,除了特別指名其著作權條款之外,均受到著作權保護,並且保留所有的權利。

社群連結
聯絡資訊
10617臺北市大安區羅斯福路四段1號
No.1 Sec.4, Roosevelt Rd., Taipei, Taiwan, R.O.C. 106
Tel: (02)33662353
Email: ntuetds@ntu.edu.tw
意見箱
相關連結
館藏目錄
國內圖書館整合查詢 MetaCat
臺大學術典藏 NTU Scholars
臺大圖書館數位典藏館
本站聲明
© NTU Library All Rights Reserved