Skip navigation

DSpace

機構典藏 DSpace 系統致力於保存各式數位資料(如:文字、圖片、PDF)並使其易於取用。

點此認識 DSpace
DSpace logo
English
中文
  • 瀏覽論文
    • 校院系所
    • 出版年
    • 作者
    • 標題
    • 關鍵字
    • 指導教授
  • 搜尋 TDR
  • 授權 Q&A
    • 我的頁面
    • 接受 E-mail 通知
    • 編輯個人資料
  1. NTU Theses and Dissertations Repository
  2. 電機資訊學院
  3. 資訊工程學系
請用此 Handle URI 來引用此文件: http://tdr.lib.ntu.edu.tw/jspui/handle/123456789/21973
標題: 對鬆散化梯度的資料聚集進行通訊量優化
Communication Usage Optimization of Gradient Sparsification with Aggregation
作者: Sheng-Ping Wang
王盛平
指導教授: 劉邦鋒(Pangfeng Liu)
關鍵字: 平行處理,分散式系統,深度學習,鬆散化梯度,
Parallel Processing,Distributed Systems,Deep Learning,Gradient Sparsification,
出版年 : 2018
學位: 碩士
摘要: 網路的資料傳輸是分散式深度學習在增加訓練機器數量時所會面臨到的瓶頸,而解決辦法之一是將所交換的梯度進行鬆散化的壓縮。我們發現在資料交換的過程中,由伺服器傳輸至訓練機器的資料量大小,會隨著由訓練機器所傳出的梯度間的相似性增高而減少。我們由初步實驗觀察到,只有少部分的參數會在短期的時間之中多次計算出較大的梯度。藉由此觀察,我們提出了幾種讓訓練機器選擇傳出梯度的演算法,並透過實驗驗證我們的做法可使由伺服器所傳出的資料量減少,並縮短訓練週期所需的時間,使訓練模型較傳統壓縮方式更快到達收斂。
Communication usage is a bottleneck of scaling workers for distributed deep learning. One solution is to compress the exchanged gradients into sparse format with gradient sparsification. We found that the send cost of server, which is the aggregated size of sparse gradient, can be reduced by the gradient selection from workers. Following an observation that only a few gradients are significantly large and in a short period of time, we proposed several gradient selection algorithms based on different metrics. Experiment showed that our proposed method can reduce the aggregated size for server, and the reduction in time per iteration can make the convergence rate faster than traditional sparsification.
URI: http://tdr.lib.ntu.edu.tw/jspui/handle/123456789/21973
DOI: 10.6342/NTU201801738
全文授權: 未授權
顯示於系所單位:資訊工程學系

文件中的檔案:
檔案 大小格式 
ntu-107-1.pdf
  未授權公開取用
703.78 kBAdobe PDF
顯示文件完整紀錄


系統中的文件,除了特別指名其著作權條款之外,均受到著作權保護,並且保留所有的權利。

社群連結
聯絡資訊
10617臺北市大安區羅斯福路四段1號
No.1 Sec.4, Roosevelt Rd., Taipei, Taiwan, R.O.C. 106
Tel: (02)33662353
Email: ntuetds@ntu.edu.tw
意見箱
相關連結
館藏目錄
國內圖書館整合查詢 MetaCat
臺大學術典藏 NTU Scholars
臺大圖書館數位典藏館
本站聲明
© NTU Library All Rights Reserved