Skip navigation

DSpace

機構典藏 DSpace 系統致力於保存各式數位資料(如:文字、圖片、PDF)並使其易於取用。

點此認識 DSpace
DSpace logo
English
中文
  • 瀏覽論文
    • 校院系所
    • 出版年
    • 作者
    • 標題
    • 關鍵字
  • 搜尋 TDR
  • 授權 Q&A
    • 我的頁面
    • 接受 E-mail 通知
    • 編輯個人資料
  1. NTU Theses and Dissertations Repository
  2. 電機資訊學院
  3. 電信工程學研究所
請用此 Handle URI 來引用此文件: http://tdr.lib.ntu.edu.tw/jspui/handle/123456789/90694
標題: 以高維通用向量量化器提升聯邦學習通訊效率
High-Dimensional Universal Vector Quantization for Efficient Federated Learning
作者: 呂冠輝
Guan-Huei Lyu
指導教授: 林士駿
Shih-Chun Lin
關鍵字: 聯邦學習,向量量化器,通用量化,低碼率量化,
federated learning,vector quantization,universal quantization,low-rate quantization,
出版年 : 2023
學位: 碩士
摘要: 聯邦學習(FL)是一種分散式的機器學習,在進行機器學習的模型訓練時,由一個中央參數伺服器(PS)進行協調,讓多個邊緣設備在本地進行訓練而不會分享彼此的數據。在實際上,性能瓶頸是來自每個邊緣設備到 PS 的連接容量(link capacity)。為滿足嚴格的連接容量限制,需要在邊緣設備上對模型更新進行低碼率(low-rate)的壓縮。本文提出了一種低碼率的通用向量量化器,可以實現分數壓縮率。我們的方案包括兩個步驟:(1)模型更新的預處理和(2)使用通用trellis coded quantization(TCQ)的向量量化。在預處理步驟中,對模型更新進行稀疏化和縮放,以便與 TCQ 設計相匹配。使用 TCQ 進行的量化步驟允許分數壓縮率,並且輸入大小靈活,可以適應不同的神經網絡層。模擬結果顯示,我們的向量量化可以節省 75%的連接容量,並且與文獻中提出的其他壓縮器相比仍具有令人滿意的準確性。
Federated learning (FL) is a distributed training paradigm in which the training of a machine learning model is coordinated by a central parameter server (PS) while data is distributed across multiple edge devices. In practice, the performance bottleneck is the link capacity from each edge device to the PS. To satisfy stringent link capacity constraints, model updates need to be compressed rather aggressively at the edge devices. In this paper, we propose a low-rate universal vector quantizer that can attain low or even fractional-rate compression. Our scheme consists of two steps: (i) model update pre-processing and (ii) vector quantization using a universal trellis coded quantizer (TCQ). In the pre-processing steps, model updates are sparsified and scaled, so as to match the TCQ design. The quantization step using TCQ, allows for fractional compression rate and has a flexible input size so that it can be adapted to the different neural network layers. The simulations show that our vector quantization can save 75% link capacity and still have compelling accuracy, as compared with the other compressors proposed in the literature.
URI: http://tdr.lib.ntu.edu.tw/jspui/handle/123456789/90694
DOI: 10.6342/NTU202302329
全文授權: 同意授權(限校園內公開)
電子全文公開日期: 2028-07-28
顯示於系所單位:電信工程學研究所

文件中的檔案:
檔案 大小格式 
ntu-111-2.pdf
  目前未授權公開取用
1.75 MBAdobe PDF檢視/開啟
顯示文件完整紀錄


系統中的文件,除了特別指名其著作權條款之外,均受到著作權保護,並且保留所有的權利。

社群連結
聯絡資訊
10617臺北市大安區羅斯福路四段1號
No.1 Sec.4, Roosevelt Rd., Taipei, Taiwan, R.O.C. 106
Tel: (02)33662353
Email: ntuetds@ntu.edu.tw
意見箱
相關連結
館藏目錄
國內圖書館整合查詢 MetaCat
臺大學術典藏 NTU Scholars
臺大圖書館數位典藏館
本站聲明
© NTU Library All Rights Reserved