Skip navigation

DSpace

機構典藏 DSpace 系統致力於保存各式數位資料(如:文字、圖片、PDF)並使其易於取用。

點此認識 DSpace
DSpace logo
English
中文
  • 瀏覽論文
    • 校院系所
    • 出版年
    • 作者
    • 標題
    • 關鍵字
  • 搜尋 TDR
  • 授權 Q&A
    • 我的頁面
    • 接受 E-mail 通知
    • 編輯個人資料
  1. NTU Theses and Dissertations Repository
  2. 理學院
  3. 統計與數據科學研究所
請用此 Handle URI 來引用此文件: http://tdr.lib.ntu.edu.tw/jspui/handle/123456789/96536
標題: 前饋神經網路之信賴交叉驗證法
Cross-Validation with Confidence in Feed-Forward Neural Network
作者: 林允文
Yun-Wen Lin
指導教授: 張馨文
Hsin-wen Chang
關鍵字: 信賴交叉驗證,前饋式神經網路,模型選擇,
Cross-Validation with Confidence,Feed-Forward Neural Networks,Model Selection,
出版年 : 2025
學位: 碩士
摘要: 交叉驗證(Cross-validation, CV)是機器學習中用於模型選擇和效能評估的基礎技術。然而,傳統的交叉驗證方法可能因折疊損失間的相關性而低估預測風險變異,且未能充分考慮測試數據中的近似誤差。信賴交叉驗證(Cross-Validation with Confidence, CVC)方法的提出解決了這些限制,為模型選擇結果提供統計信心,但其應用主要侷限於線性模型。

本研究探討將CVC方法應用於前饋式神經網路(Feed-Forward Neural Networks, FNNs),主要關注模型選擇的問題。透過數值研究,我們觀察到這個方法相較於傳統交叉驗證方法,在模型選擇時可能提供額外的參考資訊。

研究結果顯示,將CVC應用於神經網路可能有助於降低神經網路訓練中常見的不穩定性。我們的方法嘗試為神經網路架構選擇提供額外的統計考量。本研究初步探討了CVC在神經網路上的可能應用,期待未來能有更多相關的理論發展與實務應用。
Cross-Validation (CV) is a fundamental technique in machine learning for model selection and performance evaluation. However, traditional CV methods may underestimate prediction risk variance due to correlations among fold losses and fail to account for approximation errors in test data. Cross-Validation with Confidence (CVC) has been proposed to address these limitations by providing statistical confidence in model selection results, but its application has primarily been limited to linear models.

This thesis investigates the application of CVC to Feed-Forward Neural Networks (FNNs), focusing on architecture selection. Through simulation studies, we explore how this approach might provide additional insights for model selection compared to conventional CV methods. The investigation suggests that our approach could offer complementary information to existing model selection techniques.

The results indicate that applying CVC to neural networks might help reduce the instability typically associated with neural network training. This study represents an initial exploration of CVC in neural network architecture selection, contributing to the ongoing discussion of confident model selection in neural networks.
URI: http://tdr.lib.ntu.edu.tw/jspui/handle/123456789/96536
DOI: 10.6342/NTU202500421
全文授權: 同意授權(限校園內公開)
電子全文公開日期: 2027-02-28
顯示於系所單位:統計與數據科學研究所

文件中的檔案:
檔案 大小格式 
ntu-113-1.pdf
  目前未授權公開取用
3.57 MBAdobe PDF檢視/開啟
顯示文件完整紀錄


系統中的文件,除了特別指名其著作權條款之外,均受到著作權保護,並且保留所有的權利。

社群連結
聯絡資訊
10617臺北市大安區羅斯福路四段1號
No.1 Sec.4, Roosevelt Rd., Taipei, Taiwan, R.O.C. 106
Tel: (02)33662353
Email: ntuetds@ntu.edu.tw
意見箱
相關連結
館藏目錄
國內圖書館整合查詢 MetaCat
臺大學術典藏 NTU Scholars
臺大圖書館數位典藏館
本站聲明
© NTU Library All Rights Reserved