Skip navigation

DSpace

機構典藏 DSpace 系統致力於保存各式數位資料(如:文字、圖片、PDF)並使其易於取用。

點此認識 DSpace
DSpace logo
English
中文
  • 瀏覽論文
    • 校院系所
    • 出版年
    • 作者
    • 標題
    • 關鍵字
    • 指導教授
  • 搜尋 TDR
  • 授權 Q&A
    • 我的頁面
    • 接受 E-mail 通知
    • 編輯個人資料
  1. NTU Theses and Dissertations Repository
  2. 電機資訊學院
  3. 資訊工程學系
請用此 Handle URI 來引用此文件: http://tdr.lib.ntu.edu.tw/jspui/handle/123456789/72154
標題: 分散式深度學習系統中處理器間通訊與效能擴展性之模型建構與預測
Modeling and Estimation of the Interprocessor Communication and Performance Scalability for Distributed Deep Learning Systems
作者: Yi-Hong Lyu
呂宜鴻
指導教授: 洪士灝(Shih-Hao Hung)
關鍵字: 效能分析工具,深度學習,分散式訓練,時間模型,網路,
Profiling tool,Deep learning,Distrbuted training,Timing Model,Network,
出版年 : 2018
學位: 碩士
摘要: 深度學習是機器學習的一種方法,在實際應用中,即使運用具備圖形處理器(graphics processing unit, GPU)的機器來加速計算,往往需要幾天,甚至數周的時間才能完成以巨量資料訓練深度學習神經網路的工作,因此採用高效能計算叢集(HPC cluster)進一步加速深度學習的作法應運而生。高效能計算叢集將訓練深度神經網路的計算任務分配到不同計算節點進行分散式訓練(distributed training),每個計算節點具備多個圖形處理器,因此可大幅縮短訓練的時間。但是隨著節點個數的增加,以及圖形處理器計算能力的提升,訓練時所需要同步更新參數(parameters)所產生的資料交換量亦大幅的成長,而處理器之間大量的通訊所造成的負擔可能嚴重削減加速的效果。
本篇論文發展一套效能模型的建構方法,可針對Tensorflow分散式訓練中參數同步的方法,包括參數伺服器(parameter server)及環狀(xring),以及高效能計算叢集中處理器間的通訊網路拓樸,建構出系統層級的效能預估模型。我們透過測量程式獲得一次疊代(iteration)圖形處理器所需要的計算時間、網路傳輸參數所需的時間、模型參數的大小、模型參數在內部處理器間的傳輸量等資訊,自動為目標系統產生效能模型。使用者可透過此模型,準確預估出任何在該系統上執行分散式深度學習訓練工作的效能可擴展性、與網路的頻寬需求、甚至可以使用此模型來建構出成本效益高的圖形處理器叢集。根據我們的實驗結果,模型所預測的效能與實際的效能的差距在正負百分之十之內,因此對於系統設計者在做初期規劃的時候提供了相當實用的參考資料。
URI: http://tdr.lib.ntu.edu.tw/jspui/handle/123456789/72154
DOI: 10.6342/NTU201803835
全文授權: 有償授權
顯示於系所單位:資訊工程學系

文件中的檔案:
檔案 大小格式 
ntu-107-1.pdf
  未授權公開取用
9.31 MBAdobe PDF
顯示文件完整紀錄


系統中的文件,除了特別指名其著作權條款之外,均受到著作權保護,並且保留所有的權利。

社群連結
聯絡資訊
10617臺北市大安區羅斯福路四段1號
No.1 Sec.4, Roosevelt Rd., Taipei, Taiwan, R.O.C. 106
Tel: (02)33662353
Email: ntuetds@ntu.edu.tw
意見箱
相關連結
館藏目錄
國內圖書館整合查詢 MetaCat
臺大學術典藏 NTU Scholars
臺大圖書館數位典藏館
本站聲明
© NTU Library All Rights Reserved