請用此 Handle URI 來引用此文件:
http://tdr.lib.ntu.edu.tw/jspui/handle/123456789/73765
標題: | 建立使用非同步隨機梯度下降法的分散式訓練之多參數伺服器模型 Multi-parameter-server modeling for distributed asynchronous SGD |
作者: | Yu-Nuo Juan 阮昱諾 |
指導教授: | 周承復(Cheng-Fu Chou) |
關鍵字: | 深度學習,深度神經網路,分散式機器學習,排隊網路,Tensorflow, Deep Learning,Deep Neural Networks,Distributed Machine Learning,Queueing Networks,TensorFlow, |
出版年 : | 2019 |
學位: | 碩士 |
摘要: | 深度神經網路最近在各領域獲得了巨大的成功,並吸引了更多世界各地學者的目光。大量的訓練工作考驗著軟硬體的發展。分散式學習是一種常見的加速方式。在這篇論文中我們會提出解決擴展學習環境的其中一個問題,也會解釋整個模型與背後使用的工具。 Deep Neural Networks(DNNs) is very successful and has drawn more and more attentions from researchers all over the world. A huge demand of training jobs are challenging the development of both software tools and hardware systems. Distributed training is a common approach to speed up these jobs. In this paper, we propose a new method to address one of the problem in expanding the scale of your training environment, and we will also explain the model and tools behind. |
URI: | http://tdr.lib.ntu.edu.tw/jspui/handle/123456789/73765 |
DOI: | 10.6342/NTU201903787 |
全文授權: | 有償授權 |
顯示於系所單位: | 資訊網路與多媒體研究所 |
文件中的檔案:
檔案 | 大小 | 格式 | |
---|---|---|---|
ntu-108-1.pdf 目前未授權公開取用 | 2.34 MB | Adobe PDF |
系統中的文件,除了特別指名其著作權條款之外,均受到著作權保護,並且保留所有的權利。