Skip navigation

DSpace

機構典藏 DSpace 系統致力於保存各式數位資料(如:文字、圖片、PDF)並使其易於取用。

點此認識 DSpace
DSpace logo
English
中文
  • 瀏覽論文
    • 校院系所
    • 出版年
    • 作者
    • 標題
    • 關鍵字
    • 指導教授
  • 搜尋 TDR
  • 授權 Q&A
    • 我的頁面
    • 接受 E-mail 通知
    • 編輯個人資料
  1. NTU Theses and Dissertations Repository
  2. 電機資訊學院
  3. 資料科學學位學程
請用此 Handle URI 來引用此文件: http://tdr.lib.ntu.edu.tw/jspui/handle/123456789/81728
標題: 分散式共識最小絕對值收斂和選擇算子
Distributed Consensus LASSO
作者: Jhao-Gu Tai
戴肇谷
指導教授: 李育杰(Yuh-Jye Lee)
共同指導教授: 李宏毅(Hung-Yi Lee)
關鍵字: 聯邦式學習,分散式共識,最小絕對值收斂和選擇算子,隱私保護,非同步,交替方向乘子法,對抗式攻擊,
Federated Learning,Distributed Consensus,LASSO,Privacy Preserving,Asynchronous,ADMM,Adversarial Attack,
出版年 : 2021
學位: 碩士
摘要: 隨著機器學習的成長,有越來越多的組織與公司嘗試使用機器學習來預測或是做決策。雖然機器學習在現在被廣泛的使用,但是資料集數量不足仍會是很多組織面臨的一大重要問題。為了克服資料不足的情形,聯邦式學習自此便扮演著重要的角色。 我們的研究著重於聯邦式學習的運算效率以及網路安全性。我們應用 ADMM 這個方法來解聯邦學習中的分散式最佳化問題。傳統的同步式 ADMM 中,中央主機需要等所有本地端的工作單位都呈遞權重更新。基於工作單位計算資源的差異,落後者可能會造成同步延遲。為了減低落後者造成的同步延遲,我們提出了非同步 ADMM 這個方法。使用非同步 ADMM,中央主機可以更新全域權重而無需等待落後者,並且可以加快訓練的速度。 我們考慮到使用聯邦式(分散式共識的)LASSO 估計模型,若假設本地端的工作單位 和中央主機之間存在不信任的關係,例如好奇的主機可能會藉由工作單位的更新來尋找本地資料的訊息。另一方面,惡意的本地端工作單位可能會透過發送惡意的更新權重來破壞整體分散式系統的學習過程。我們提出了進階的聯邦式 LASSO 算法,該算法讓各個本地端工作單位在訓練過程中增加隨機噪音到資料裡,藉此提供本地的資料安全性。我們的演算法還可以透過偵測惡意的工作單位並阻絕進入機器學習系統內。由此方法來防止學習過程受到對抗式攻擊,例如模型毒素攻擊和資料毒素攻擊。
URI: http://tdr.lib.ntu.edu.tw/jspui/handle/123456789/81728
DOI: 10.6342/NTU202104514
全文授權: 未授權
顯示於系所單位:資料科學學位學程

文件中的檔案:
檔案 大小格式 
U0001-0312202123561400.pdf
  未授權公開取用
4.38 MBAdobe PDF
顯示文件完整紀錄


系統中的文件,除了特別指名其著作權條款之外,均受到著作權保護,並且保留所有的權利。

社群連結
聯絡資訊
10617臺北市大安區羅斯福路四段1號
No.1 Sec.4, Roosevelt Rd., Taipei, Taiwan, R.O.C. 106
Tel: (02)33662353
Email: ntuetds@ntu.edu.tw
意見箱
相關連結
館藏目錄
國內圖書館整合查詢 MetaCat
臺大學術典藏 NTU Scholars
臺大圖書館數位典藏館
本站聲明
© NTU Library All Rights Reserved