請用此 Handle URI 來引用此文件:
http://tdr.lib.ntu.edu.tw/jspui/handle/123456789/68796
標題: | 深度神經網路於現場可程式化邏輯閘陣列之高效實作與轉換方法 Mapping Deep Neural Network for Efficient FPGA Implementation |
作者: | Hao-Yuan Kuo 郭皓元 |
指導教授: | 江介宏(Jie-Hong Jiang) |
關鍵字: | 機器學習,神經網路,乘法器,隨機計算,現場可程式化邏輯閘陣列, machine learning,neural network,stochastic computing,multipliers,FPGA, |
出版年 : | 2017 |
學位: | 碩士 |
摘要: | 隨著機器學習應用的蓬勃發展,深度神經網路的硬體實作是一個低功耗,高效能,且低面積的解決方案。實作上,為了減少高成本算數電路的使用,將神經網路作二元化的處理是一個很重要的步驟。現有的神經網路二元化方法,大致上需要依靠特殊的網路訓練方式或者利用隨機計算的技巧。給定網路拓樸架構的情況下,前者需要大量的實作經驗來找出適當的重新訓練步驟;而後者則是在不仰賴重新訓練網路的情形下,找出一個一般化且系統化的計算方法。在這篇論文中,透過上述的重新訓練以及隨機計算的方法,我們會探討如何將深度神經網路轉換並實作在現場可程式化邏輯閘陣列上。作為個案討論,我們將兩種訓練於MNIST手寫數字辨識資料集的深度神經網路實作在Xilinx Artix-7的現場可程式化邏輯閘陣列上,並且比較各實作方式之優劣。 Deploying deep neural networks (DNNs) in hardware is a common tactic to achieve energy, performance, and area efficiency for widespread applications. Binarizing neural networks is a key step to eliminate costly arithmetic computation from circuit implementation.Available neuron binarization methods are based on either special training or stochastic computation.The former requires expertise and experience to find a workable training procedure for a given network architecture;the latter decouples the training process and is generally and systematically applicable to a well-trained neural network. In this thesis, we study how to map DNNs for efficient FPGA realization through retraining parameters and stochastic computation. As a case study, a maxout DNN and ReLU DNN for MNIST dataset classification is trained and mapped onto Xilinx Artix-7 FPGA for efficient implementation. |
URI: | http://tdr.lib.ntu.edu.tw/jspui/handle/123456789/68796 |
DOI: | 10.6342/NTU201702277 |
全文授權: | 有償授權 |
顯示於系所單位: | 電子工程學研究所 |
文件中的檔案:
檔案 | 大小 | 格式 | |
---|---|---|---|
ntu-106-1.pdf 目前未授權公開取用 | 1.35 MB | Adobe PDF |
系統中的文件,除了特別指名其著作權條款之外,均受到著作權保護,並且保留所有的權利。