請用此 Handle URI 來引用此文件:
http://tdr.lib.ntu.edu.tw/jspui/handle/123456789/90096| 標題: | 步步精心:用於少樣本情境學習的階段性學習範例選擇策略 Let’s Select Step by Step(LSSS): A Demonstration Selection Strategy For Few-Shot In-Context Learning |
| 作者: | 楊敦捷 Dun-Jie Yang |
| 指導教授: | 許永真 Yung-Jen Hsu |
| 關鍵字: | 少樣本情境學習,大型語言模型,提示工程,自然語言處理, Few-shot In-context Learning,Large Language Models,Prompt Engineering,Natural Language Processing, |
| 出版年 : | 2023 |
| 學位: | 碩士 |
| 摘要: | 大型語言模型近年來已展示出其驚人的能力,特別是在不需要任何參數更新的情況下,能使用少量的範例進行學習來完成各種任務。然而,學習範例的選擇大大影響了模型的表現,進而影響了穩定性。受到相關研究利用大型語言模型的推理能力和選擇多元化範例提升表現的啟發,我們提出了新的學習範例選擇策略,名為步步精心(Let's Select Step by Step)。我們利用大型語言模型進行客製於下游任務的資料分群並生成解釋,接著透過高效率的篩選機制選擇最佳的學習範例。實驗結果表明,我們的方法能在大型語言模型擅長的任務上更進一步地提高了模型表現和穩定性,而此方法的成效更是隨著利用進階模型而增強,在需要進階能力的任務表現上也有所提升。 Large Language Models (LLMs) have shown a remarkable ability to perform various tasks using few-shot in-context learning from a limited number of demonstration examples, without requiring parameter updates. However, the performance of such learning is notably inconsistent across different example sets. Inspired by related work highlighting the benefits of utilizing the reasoning ability of LLMs and diverse examples, we propose a method, Let's Select Step by Step (LSSS), for demonstration example selection. By leveraging LLMs, we carry out task-specific clustering and explanation generation, followed by an efficient evaluation to select better demonstration examples. Experimental results indicate that our method enhances both performance and stability on tasks where LLMs typically excel. Moreover, for tasks demanding specific linguistic capabilities, employing more advanced LLMs could further boost the effectiveness of our approach. |
| URI: | http://tdr.lib.ntu.edu.tw/jspui/handle/123456789/90096 |
| DOI: | 10.6342/NTU202303119 |
| 全文授權: | 同意授權(限校園內公開) |
| 電子全文公開日期: | 2027-06-07 |
| 顯示於系所單位: | 資訊工程學系 |
文件中的檔案:
| 檔案 | 大小 | 格式 | |
|---|---|---|---|
| ntu-111-2.pdf 未授權公開取用 | 4.47 MB | Adobe PDF | 檢視/開啟 |
系統中的文件,除了特別指名其著作權條款之外,均受到著作權保護,並且保留所有的權利。
