請用此 Handle URI 來引用此文件:
http://tdr.lib.ntu.edu.tw/jspui/handle/123456789/93295| 標題: | 圖神經網路的可讀表示 Human Readable Representation for Graph Neural Network |
| 作者: | 李姵徵 Pei-Cheng Li |
| 指導教授: | 黃瀚萱 Hen-Hsen Huang |
| 共同指導教授: | 鄭卜壬 Pu-Jen Cheng |
| 關鍵字: | 大型語言模型,圖神經網路,推薦系統, Large Language Model (LLM),Graph Neural Network (GNN),Recom-mendation System (RecSys), |
| 出版年 : | 2024 |
| 學位: | 碩士 |
| 摘要: | 本研究提出了一種創新方法,使用自然語言中的可讀文本來表示圖神經網絡(GNN) 中的節點,這不同於傳統的數值嵌入。我們使用大型語言模型 (LLM) 作為投影器,訓練 GNN 以從鄰居節點中聚合信息並迭代更新節點表示。我們在推薦任務中廣泛使用的 MovieLens 數據集上的實驗表明,可讀表示能有效捕捉推薦所需的信息,這表明 LLM 可以成功聚合圖中的鄰居信息。此外,微調 LLM 可以提高其生成更具應用特定的可讀表示的能力。這種技術不僅有助於將世界知識融入 GNN,還增強了其可解釋性,並允許人工干預其行為。我們的方法顯示出使圖神經網絡更易理解和控制的顯著潛力。 This research presents an innovative method for representing nodes in graph neural networks using text in natural language, diverging from the traditional numerical embeddings. By employing a large language model as a projector, we train GNNs to aggregate information from neighboring nodes and update node representations iteratively. Our experiments on the MovieLens dataset, widely used for recommendation tasks, demonstrate that human readable representations effectively capture useful information for recommendations. This suggests that LLMs can successfully aggregate neighborhood information in a graph. Furthermore, finetuning the LLMs can improve their ability to generate more application specific human readable representations. This technique not only facilitates the incorporation of world knowledge into GNNs but also enhances their interpretability and allows for human intervention in their behavior. Our approach shows significant potential for making graph neural networks more understandable and controllable. |
| URI: | http://tdr.lib.ntu.edu.tw/jspui/handle/123456789/93295 |
| DOI: | 10.6342/NTU202402156 |
| 全文授權: | 未授權 |
| 顯示於系所單位: | 資料科學學位學程 |
文件中的檔案:
| 檔案 | 大小 | 格式 | |
|---|---|---|---|
| ntu-112-2.pdf 未授權公開取用 | 4.07 MB | Adobe PDF |
系統中的文件,除了特別指名其著作權條款之外,均受到著作權保護,並且保留所有的權利。
