請用此 Handle URI 來引用此文件:
http://tdr.lib.ntu.edu.tw/jspui/handle/123456789/20011
標題: | 對分散式深度學習的計算與傳輸之排程優化 Computation and Communication Scheduling Optimization for Distributed Deep Learning Systems |
作者: | Ching-Yuan Tsai 蔡慶源 |
指導教授: | 劉邦鋒 |
關鍵字: | 深度學習,機器學習,參數伺服器,網路瓶頸, Machine learning,Deep learning,Parameter server,Network limitation, |
出版年 : | 2018 |
學位: | 碩士 |
摘要: | 深度學習是一種可以解決複雜問題的技術。因為數據的增長和模型的複雜性,大規模的深度學習已經成了一個重要的問題。分佈式深度學習是一種有效的方式訓練一個大型模型。在分散式環境下,網絡帶寬是性能瓶頸。本文的重點是如何安排網路活動以減少訓練時間。我們提出一些調度程序,並獲得最多25 % 的加速。 Deep learning is a technique that can solve complex problem. Due to the growth of data and model complexity, large-scale deep learning has became an important issue. Distributed deep learning is a efficient way to train a large model. Under distributed environment, network bandwidth is a performance bottleneck. This paper focus on how to schedule network events to reduce training time. We propose some schedulers and get at most 25% speedup. |
URI: | http://tdr.lib.ntu.edu.tw/jspui/handle/123456789/20011 |
DOI: | 10.6342/NTU201801485 |
全文授權: | 未授權 |
顯示於系所單位: | 資訊工程學系 |
文件中的檔案:
檔案 | 大小 | 格式 | |
---|---|---|---|
ntu-107-1.pdf 目前未授權公開取用 | 633.75 kB | Adobe PDF |
系統中的文件,除了特別指名其著作權條款之外,均受到著作權保護,並且保留所有的權利。