請用此 Handle URI 來引用此文件:
http://tdr.lib.ntu.edu.tw/jspui/handle/123456789/80436| 標題: | 可解釋性深度學習於多標注者圖像語意分割 Learning Interpretable Semantic Segmentation from Multi-Annotators |
| 作者: | Yuan-Chia Cheng 鄭元嘉 |
| 指導教授: | 王鈺強(Yu-Chiang Wang) |
| 關鍵字: | 深度學習,電腦視覺,語意分割,可解釋性模型,多標注者, deep learning,computer vision,semantic segmentation,interpretability,multi-annotator, |
| 出版年 : | 2021 |
| 學位: | 碩士 |
| 摘要: | 為了解深度學習模型如何進行分類預測,近期不少研究轉向發展模型可解釋性,然而目前多數研究無法直接應用至語意分割任務上,更無法在多標注者圖像語意分割問題上提供模型可解釋性。針對多標注者圖像語意分割任務,本研究旨在透過回答兩個問題來實現可解釋性模型:「誰」的標注影響預測結果,以及「為何」模型會受到該標注者影響。本研究中,我們提出了 Tendency-and-Assignment Explainable (TAX) 訓練框架,使模型能給提供「標注者」與「指派原因」兩層次的解釋。在 TAX 訓練框架下,多組捲積核負責學習不同標注者的標注傾向(標注偏好),而 prototype bank 利用圖像資訊來引導多組捲積核的學習。本研究實驗結果顯示,TAX 不僅能夠結合目前最新的網路架構以達到優良的語意分割效果,同時能針對「標注者」與「指派原因」兩面向提供令人滿意的可解釋性。 |
| URI: | http://tdr.lib.ntu.edu.tw/jspui/handle/123456789/80436 |
| DOI: | 10.6342/NTU202104548 |
| 全文授權: | 同意授權(限校園內公開) |
| 顯示於系所單位: | 電信工程學研究所 |
文件中的檔案:
| 檔案 | 大小 | 格式 | |
|---|---|---|---|
| U0001-2012202117001200.pdf 授權僅限NTU校內IP使用(校園外請利用VPN校外連線服務) | 13.33 MB | Adobe PDF |
系統中的文件,除了特別指名其著作權條款之外,均受到著作權保護,並且保留所有的權利。
