請用此 Handle URI 來引用此文件:
http://tdr.lib.ntu.edu.tw/jspui/handle/123456789/80276| 標題: | 著重於記憶體子系統的深度神經網路訓練效能分析模型 A Performance Analytical Model for DNN Training with Focus on Memory Subsystem |
| 作者: | Cheng-Yu Tsai 蔡承佑 |
| 指導教授: | 楊佳玲(Chia-Lin Yang) |
| 關鍵字: | 深度神經網路,神經網路訓練,頻寬,快取容量,分析模型,資料再利用, Deep Neural Network,training,bandwidth,cache capacity,analytical model,data reuse, |
| 出版年 : | 2021 |
| 學位: | 碩士 |
| 摘要: | 自從 AlexNet 在 2012 年的 ImageNet challenge 的突破後,深度神經網路 (DNN) 已經在眾多領域展現其價值。而現今許多 DNN 的硬體加速器設計都是採用小的晶片上快取 (onchip cache) 搭配大的晶片外記憶體 (offchip memory) 以避免頻繁的資料讀寫耗費太多時間或能量。然而,隨著科技及晶片製程的演進,除了上述的設計外,硬體設計者開始擁有更多的記憶體設計的選項。因此擁有一個用來衡量各種記憶體搭配的優劣利弊的工具變得重要。 然而,現存的工具存在以下的限制: 1) 只能用於推論 (inference),不能用於神經網路的訓練(training) 2) 只用圖像辨識的神經網路作為主要的效能評估指標 3) 只有模擬卷積層 (convolutional layer) 內部的資料流 (dataflow),而忽略其他例如批正規層 (batch normalization layer)、活化層 (activation layer) 等層影響。我們認為神經網路的訓練對於拓展應用領域或是研究更有效率的網路結構皆極其重要,且除了卷積層及全連接層以外的層,在神經網路中訓練也具有不可忽略的影響。 在這篇論文中,我們提出了一個著重於記憶體的神經網路訓練效能分析模型。這個分析模型以神經網路結構、晶片上快取的容量、晶片外快取的頻寬作為輸入參數,假設採用幾近最佳化的軟體管理快取 (softwaremanaged cache) 以避開快取設計中實作細節對效能的折扣,預估這組輸入參數下能夠得到的訓練效能,例如訓練一回合需要的執行時間、平均頻寬、資料搬移量等等。 這篇論文具有以下貢獻: 1) 提出一個可以用於評估整個深度神經網路訓練過程效能的模型,並且有將過程中的所有層皆考慮進去,而非只考量某些計算量較大的層。 2) 對於深度神經網路中各種規模的資料再利用提出徹底的分析。 3) 提出幾項對於現行神經網路的觀察及建議以提供未來深度神經網路的研究及優化可著重的方向。 |
| URI: | http://tdr.lib.ntu.edu.tw/jspui/handle/123456789/80276 |
| DOI: | 10.6342/NTU202101034 |
| 全文授權: | 同意授權(限校園內公開) |
| 顯示於系所單位: | 資訊工程學系 |
文件中的檔案:
| 檔案 | 大小 | 格式 | |
|---|---|---|---|
| U0001-1706202117241400.pdf 授權僅限NTU校內IP使用(校園外請利用VPN校外連線服務) | 4.29 MB | Adobe PDF |
系統中的文件,除了特別指名其著作權條款之外,均受到著作權保護,並且保留所有的權利。
