Skip navigation

DSpace

機構典藏 DSpace 系統致力於保存各式數位資料(如:文字、圖片、PDF)並使其易於取用。

點此認識 DSpace
DSpace logo
English
中文
  • 瀏覽論文
    • 校院系所
    • 出版年
    • 作者
    • 標題
    • 關鍵字
    • 指導教授
  • 搜尋 TDR
  • 授權 Q&A
    • 我的頁面
    • 接受 E-mail 通知
    • 編輯個人資料
  1. NTU Theses and Dissertations Repository
  2. 共同教育中心
  3. 統計碩士學位學程
請用此 Handle URI 來引用此文件: http://tdr.lib.ntu.edu.tw/jspui/handle/123456789/98548
標題: 有限樣本在語言模型中的高效價值轉換
Efficient Value Transformation in Language Models Using Limited Training Samples
作者: 林佐竺
Zuo-Zhu Lin
指導教授: 黃從仁
Tsung-Ren Huang
關鍵字: 大型語言模型,意識形態偏見,微調,資料篩選,自由聯想,
LLMs,Ideological Bias,Fine-Tuning,Data Selection,Free Association,
出版年 : 2025
學位: 碩士
摘要: 大型語言模型預設的意識形態偏見威脅資訊客觀性,但傳統操控模型立場的方法往往成本高昂且容易受到資料雜訊影響,難以落實。本研究首次提出以認知心理學中的「自由聯想」為基礎的新方法,透過模型自身生成關鍵詞,低成本且高效地篩選建構 IdeoFA 資料集。實驗證明,IdeoFA 資料集能有效地提高模型的意識形態操控能力並具有跨主題泛化性。本方法克服傳統方法之缺點,為未來 LLM 精確控制提供實務上立即可行的解決方案。
Default ideological biases in large language models (LLMs) threaten objectivity, yet traditional steering methods are expensive and sensitive to dataset noise, limiting real‑world use. We introduce a free‑association approach that prompts the model to generate keywords, constructing the IdeoFA dataset at minimal cost. Experimental evidence shows that IdeoFA significantly enhances the robustness of ideological controllability and generalises across topics, thereby offering an immediately deployable solution for precise LLM governance.
URI: http://tdr.lib.ntu.edu.tw/jspui/handle/123456789/98548
DOI: 10.6342/NTU202501741
全文授權: 同意授權(全球公開)
電子全文公開日期: 2025-08-18
顯示於系所單位:統計碩士學位學程

文件中的檔案:
檔案 大小格式 
ntu-113-2.pdf5.17 MBAdobe PDF檢視/開啟
顯示文件完整紀錄


系統中的文件,除了特別指名其著作權條款之外,均受到著作權保護,並且保留所有的權利。

社群連結
聯絡資訊
10617臺北市大安區羅斯福路四段1號
No.1 Sec.4, Roosevelt Rd., Taipei, Taiwan, R.O.C. 106
Tel: (02)33662353
Email: ntuetds@ntu.edu.tw
意見箱
相關連結
館藏目錄
國內圖書館整合查詢 MetaCat
臺大學術典藏 NTU Scholars
臺大圖書館數位典藏館
本站聲明
© NTU Library All Rights Reserved