Skip navigation

DSpace

機構典藏 DSpace 系統致力於保存各式數位資料(如:文字、圖片、PDF)並使其易於取用。

點此認識 DSpace
DSpace logo
English
中文
  • 瀏覽論文
    • 校院系所
    • 出版年
    • 作者
    • 標題
    • 關鍵字
    • 指導教授
  • 搜尋 TDR
  • 授權 Q&A
    • 我的頁面
    • 接受 E-mail 通知
    • 編輯個人資料
  1. NTU Theses and Dissertations Repository
  2. 電機資訊學院
  3. 資訊工程學系
請用此 Handle URI 來引用此文件: http://tdr.lib.ntu.edu.tw/jspui/handle/123456789/101004
標題: 思維格:自思維樹演進之結構化推理方法
Lattice of Thought: Advancing Structured Reasoning from Tree of Thought
作者: 陳家潁
Chia-Yin Chen
指導教授: 廖世偉
Shih-Wei Liao
關鍵字: 大型語言模型 (LLM),提示工程格子符元減少
Large Language Model (LLM),prompt engineeringlatticetoken reduction
出版年 : 2025
學位: 碩士
摘要: 近年來,大型語言模型(LLMs)在各種任務上展現出優異的表現。然而,其推理能力仍受到傳統提示方法的限制,例如直接的輸入輸出(I/O)映射或是線性的思維鏈(Chain-of-Thought, CoT)提示。雖然「思維樹」(Tree of Thought, ToT)框架透過探索多條推理路徑來提升模型的推理表現,但因為存在大量重複節點與高昂的 token 使用量,使其在效率上仍有不足。
本論文提出一個改良的框架──「思維格」(Lattice of Thought, LoT),以解決 ToT 中的效率問題。該方法透過辨識並合併語意相同的推理狀態,將原本的樹狀結構壓縮為格狀結構,從而減少重複探索與不必要的 token 消耗。在 Game of 24 任務上的實驗結果顯示,LoT 在維持與 ToT 相當甚至更高的成功率下,平均 token 使用量降低了 29.04%。此外,本研究也對多種提示策略進行了成本、效率與成功率的分析與比較。
結果證明,LoT 提供了一種更有效率且可擴展的推理方式,為大型語言模型在多步驟問題解決上的應用帶來新的可能性。
In recent years, large language models (LLMs) have shown impressive performance across a wide range of tasks. However, their reasoning ability is often limited by traditional prompting methods such as direct input-output (I/O) mapping or sequential Chain-of-Thought (CoT) prompting. While the Tree of Thought (ToT) framework improves reasoning by exploring multiple reasoning paths in a tree structure, it suffers from inefficiency due to redundant node expansion and high token usage.
This thesis proposes a new framework called Lattice of Thought (LoT), which enhances ToT by identifying and merging semantically equivalent reasoning states into a lattice structure. By eliminating repeated paths and overlapping subtrees, LoT reduces unnecessary token consumption and computational cost during exploration. Our experiments on the Game of 24 task show that LoT achieves a 29.04% reduction in token usage while maintaining a comparable or higher success rate than ToT. We also provide a detailed analysis of cost, efficiency, and success rate across various prompting strategies.
The results demonstrate that LoT offers a more efficient and scalable approach to structured reasoning in LLMs and opens up opportunities for further improvements in multi-step problem-solving tasks.
URI: http://tdr.lib.ntu.edu.tw/jspui/handle/123456789/101004
DOI: 10.6342/NTU202504446
全文授權: 同意授權(限校園內公開)
電子全文公開日期: 2025-11-27
顯示於系所單位:資訊工程學系

文件中的檔案:
檔案 大小格式 
ntu-114-1.pdf
授權僅限NTU校內IP使用(校園外請利用VPN校外連線服務)
3.26 MBAdobe PDF
顯示文件完整紀錄


系統中的文件,除了特別指名其著作權條款之外,均受到著作權保護,並且保留所有的權利。

社群連結
聯絡資訊
10617臺北市大安區羅斯福路四段1號
No.1 Sec.4, Roosevelt Rd., Taipei, Taiwan, R.O.C. 106
Tel: (02)33662353
Email: ntuetds@ntu.edu.tw
意見箱
相關連結
館藏目錄
國內圖書館整合查詢 MetaCat
臺大學術典藏 NTU Scholars
臺大圖書館數位典藏館
本站聲明
© NTU Library All Rights Reserved