請用此 Handle URI 來引用此文件:
http://tdr.lib.ntu.edu.tw/jspui/handle/123456789/91756
標題: | 利用無監督式環境多樣化解決分佈外泛化與演算法公平性之問題 Unsupervised Environment Diversification for Out-of-Distribution Generalization and Algorithmic Fairness |
作者: | 黃柏瑋 Bo-Wei Huang |
指導教授: | 林守德 Shou-De Lin |
關鍵字: | 不變學習,分佈外泛化,演算法公平性,深度學習,機器學習, Invariant Learning,Out-of-Distribution Generalization,Algorithmic Fairness,Deep Learning,Machine Learning, |
出版年 : | 2023 |
學位: | 碩士 |
摘要: | 神經網路經常透過「經驗風險最小化」進行訓練;然而,近來許多研究表明模型可能無意間學習到資料中的偏差,影響分佈外泛化能力和演算法公平性。為了解決這個問題,「不變學習」被提出用於提取不受分佈變化影響的不變特徵,而本研究提出了一個不變學習框架 EDNIL,其包含多頭神經網路以吸收資料中的偏差。在論文中,我們說明此框架不需要事先取得環境標籤,也沒有過度要求預訓練模型。此外,我們揭示了此演算法與近期討論變異特徵和不變特徵屬性研究之間的理論連結。最後,透過實驗證明,使用EDNIL訓練的模型不僅表現出卓越的分佈外泛化能力,還能促進機器學習演算法的公平性。 Neural networks are often trained with Empirical Risk Minimization (ERM). However, it has been shown that model could inadvertently learn biases present in data, causing out-of-distribution generalization and algorithmic fairness concerns. On this issue, a research direction, invariant learning, has been proposed to extract invariant features insensitive to the distributional changes. This work proposes EDNIL, an invariant learning framework containing an auxiliary multi-head neural network to absorb data biases. We show that this framework does not require prior knowledge about environments or strong assumptions about the pre-trained model. We also reveal that the proposed algorithm has theoretical connections to recent studies discussing properties of variant and invariant features. Finally, we empirically demonstrate that models trained with EDNIL not only exhibit enhanced out-of-distribution generalization but also promote algorithmic fairness. |
URI: | http://tdr.lib.ntu.edu.tw/jspui/handle/123456789/91756 |
DOI: | 10.6342/NTU202301438 |
全文授權: | 同意授權(全球公開) |
顯示於系所單位: | 資訊工程學系 |
文件中的檔案:
檔案 | 大小 | 格式 | |
---|---|---|---|
ntu-112-1.pdf | 2.45 MB | Adobe PDF | 檢視/開啟 |
系統中的文件,除了特別指名其著作權條款之外,均受到著作權保護,並且保留所有的權利。