請用此 Handle URI 來引用此文件:
http://tdr.lib.ntu.edu.tw/jspui/handle/123456789/69388
標題: | 藉由覆蓋雜訊了解深度網路所見之方法 Uncovering What Network Sees by Noise Covering |
作者: | Chien-Chi Liao 廖建棋 |
指導教授: | 吳家麟 |
關鍵字: | 深度學習,影像分類,決策解釋,顯著圖, Deep Learning,Image Classification,Decision Explanation,Saliency Map, |
出版年 : | 2018 |
學位: | 碩士 |
摘要: | 我們還不夠瞭解深度學習是如何做決策的,以至於我們沒辦法完全信任它。因此,我們提出一個以最佳化為基礎的方法,試著以視覺化的方式找出深度網路對影像分類時的依據。此方法將不斷變化的雜訊覆蓋在輸入影像上,使得被辨識到的特徵可以被標示出來。我們用類似ImageNet自然影像的資料集來與其他方法進行比較。結果顯示,我們的方法得出來的顯著圖在視覺品質上較佳,以及與辨識結果有較高的相關性。我們將此方法套用到三種知名的深度卷積網路中間層,探索影像辨識的過程,並得到一些見解。此外,我們的方法在實作上並不需要修改現有的模型,所需的最佳化目標函數可以容易地用現有的深度學習套件實作。 The mystery of how deep neural networks (DNNs) make decision has discouraged us to fully trust them. This writeup presents an optimization-based method for visualizing the clues that may explain the reason behind the DNN classified results of an image. Our method masks the inputs with varying noises to extract the truly effective and recognizable features. We did the empirical comparisons with related works on ImageNet like dataset, and the obtained saliency maps provide better visual quality and higher relevance score in general. We found some insights into the recognition processes of three notable CNNs by applying our approach to the corresponding intermediate layers. Besides, the realization of our approach doesn't require any modification of existing models and the cost function of the optimization process can be easily formulated based on modern deep learning libraries. |
URI: | http://tdr.lib.ntu.edu.tw/jspui/handle/123456789/69388 |
DOI: | 10.6342/NTU201801411 |
全文授權: | 有償授權 |
顯示於系所單位: | 資訊工程學系 |
文件中的檔案:
檔案 | 大小 | 格式 | |
---|---|---|---|
ntu-107-1.pdf 目前未授權公開取用 | 4.22 MB | Adobe PDF |
系統中的文件,除了特別指名其著作權條款之外,均受到著作權保護,並且保留所有的權利。