請用此 Handle URI 來引用此文件:
http://tdr.lib.ntu.edu.tw/jspui/handle/123456789/86071
標題: | 安全聚合非唯一所需: 論聯盟式學習法下以雜訊容忍度防禦隱私攻擊 Secure Aggregation Is Not All You Need: Mitigating Privacy Attacks with Noise Tolerance in Federated Learning |
作者: | John Reuben Gilbert 夏明傑 |
指導教授: | 歐陽彥正(Yen-Jen Oyang) |
關鍵字: | 資訊安全,深度學習,分散式機器學習,聯盟式學習,安全聚合,數據隱私,人工智慧, Security,Deep Learning,Distributed Machine Learning,Federated Learning,Secure Aggregation,Data Privacy,Artificial Intelligence, |
出版年 : | 2022 |
學位: | 碩士 |
摘要: | 聯盟式學習 (Federated Learning) 是一種協作方法,目標在於創建 AI 模型的同 時 保 護 數 據 隱 私 。 當 前 聯 盟 式 學 習 法 往 往 極 度 依 賴 安 全 聚 合 協 議 (Secure Aggregation) 來保護數據隱私。然而,在某種程度上,此類協議必須假定編排聯盟式學習過程的個人或組織(亦即伺服器)不是完全惡意或不誠實的。我們在審查當伺服器為完全惡意的並試圖獲取私人、潛在敏感數據的訪問權限時,安全聚合是否有漏洞。此外,我們提供一種進一步防禦此類惡意伺服器的方法,並且 展示了在聯盟式學習的情況下,此方法對於防禦重建數據的攻擊是有效的。 Federated learning is a collaborative method that aims to preserve data privacy while creating AI models. Current approaches to federated learning tend to rely heavily on secure aggregation protocols to preserve data privacy. However, to some degree, such protocols assume that the entity orchestrating the federated learning process (i.e., the server) is not fully malicious or dishonest. We investigate vulnerabilities to secure aggregation that could arise if the server is fully malicious and attempts to obtain access to private, potentially sensitive data. Furthermore, we provide a method to further defend against such a malicious server, and demonstrate effectiveness against known attacks that reconstruct data in a federated learning setting. |
URI: | http://tdr.lib.ntu.edu.tw/jspui/handle/123456789/86071 |
DOI: | 10.6342/NTU202203293 |
全文授權: | 同意授權(全球公開) |
電子全文公開日期: | 2022-09-19 |
顯示於系所單位: | 資訊工程學系 |
文件中的檔案:
檔案 | 大小 | 格式 | |
---|---|---|---|
U0001-1109202223524900.pdf | 7.1 MB | Adobe PDF | 檢視/開啟 |
系統中的文件,除了特別指名其著作權條款之外,均受到著作權保護,並且保留所有的權利。