Skip navigation

DSpace

機構典藏 DSpace 系統致力於保存各式數位資料(如:文字、圖片、PDF)並使其易於取用。

點此認識 DSpace
DSpace logo
English
中文
  • 瀏覽論文
    • 校院系所
    • 出版年
    • 作者
    • 標題
    • 關鍵字
    • 指導教授
  • 搜尋 TDR
  • 授權 Q&A
    • 我的頁面
    • 接受 E-mail 通知
    • 編輯個人資料
  1. NTU Theses and Dissertations Repository
  2. 電機資訊學院
  3. 資訊工程學系
請用此 Handle URI 來引用此文件: http://tdr.lib.ntu.edu.tw/jspui/handle/123456789/101135
標題: 零樣本主題分類的進展:基於 BERT 模型與大型語言模型的比較與分析
Advancing Zero-Shot Topic Classification: A Comparative Study of BERT-based Models and Large Language Models
作者: 戚得郁
Te-Yu Chi
指導教授: 陳尚澤
Shang-Tse Chen
共同指導教授: 張智星
Jyh-Shing Jang
關鍵字: 零樣本訓練主題分類,SBERT維基百科自訓練對比學習知識圖譜大型語言模型
Zero-shot topic classification,SBERTWikipediaSelf-trainingContrastive learningKnowledge graphLLM
出版年 : 2025
學位: 博士
摘要: 本研究針對零樣本主題分類(Zero-Shot Topic Classification, ZSTC)問題,提出一種結合維基百科知識與自訓練技術的WC-SBERT 模型。相較於傳統監督式學習方法,ZSTC 旨在無需任何已標註訓練數據的前提下,將文本劃分至預定義主題類別。此能力對於處理數據稀缺、主題多樣且標註成本高昂的實際應用場景至關重要。
WC-SBERT 模型首先利用維基百科資料進行預訓練,獲取廣泛語義知識;隨後透過自訓練技術強化分類能力,將預訓練知識遷移至特定主題分類任務。於多個基準數據集(AG News、Yahoo Answers、DBpedia)的評估結果顯示,該模型不僅優於傳統SBERT 模型,更在AG News 與Yahoo Answers 數據集達到最先進(SOTA)水準。
除了提出新模型,本研究亦探討描述性標籤增強(Descriptive Label Augmentation)與自動提示工程(Auto Prompt Engineering, APE)技術,證實透過GPT 模型生成富含語義信息的標籤描述,可顯著提升分類效能。
另一核心貢獻在於針對大型語言模型(LLM)在ZSTC 任務中的表現,進行系統性的基準測試與比較分析。實驗揭示了LLM 與BERT-based 模型在不同情境下的優劣勢:儘管LLM 展現強大泛化能力,但在特定領域與資源受限情境下,經過優化的WC-SBERT 仍具備高度競爭力與效率優勢。
綜上所述,本研究驗證了WC-SBERT 模型有效性,並提供BERT-based 模型與LLM 在零樣本分類任務的完整比較基準,為該領域研究提供具價值的參考依據。
This research addresses Zero-Shot Topic Classification (ZSTC) by proposing WCSBERT, a model integrating Wikipedia knowledge with self-training techniques. Unlike traditional supervised learning, ZSTC categorizes text into predefined topics without labeled training data, a capability essential for scenarios with data scarcity and high annotation costs.
WC-SBERT leverages Wikipedia for pre-training to acquire broad semantic knowledge, followed by self-training to transfer this knowledge to specific classification tasks. Evaluations on benchmark datasets (AG News, Yahoo Answers, DBpedia) show that WCSBERT consistently outperforms traditional SBERT and achieves state-of-the-art (SOTA) results on AG News and Yahoo Answers.
Additionally, this study explores Descriptive Label Augmentation and Auto Prompt Engineering (APE), confirming that semantically rich label descriptions generated via GPT models significantly enhance classification performance.
Another core contribution is a systematic benchmarking of Large Language Models (LLMs) in ZSTC. Results reveal the trade-offs between LLMs and BERT-based models: while LLMs show strong generalization, the optimized WC-SBERT remains highly competitive and efficient in domain-specific and resource-constrained environments.
Overall, this study validates WC-SBERT and establishes a comprehensive benchmark comparing BERT-based models and LLMs, providing a valuable reference for the field.
URI: http://tdr.lib.ntu.edu.tw/jspui/handle/123456789/101135
DOI: 10.6342/NTU202504846
全文授權: 同意授權(全球公開)
電子全文公開日期: 2026-01-01
顯示於系所單位:資訊工程學系

文件中的檔案:
檔案 大小格式 
ntu-114-1.pdf2.19 MBAdobe PDF檢視/開啟
顯示文件完整紀錄


系統中的文件,除了特別指名其著作權條款之外,均受到著作權保護,並且保留所有的權利。

社群連結
聯絡資訊
10617臺北市大安區羅斯福路四段1號
No.1 Sec.4, Roosevelt Rd., Taipei, Taiwan, R.O.C. 106
Tel: (02)33662353
Email: ntuetds@ntu.edu.tw
意見箱
相關連結
館藏目錄
國內圖書館整合查詢 MetaCat
臺大學術典藏 NTU Scholars
臺大圖書館數位典藏館
本站聲明
© NTU Library All Rights Reserved