請用此 Handle URI 來引用此文件:
http://tdr.lib.ntu.edu.tw/jspui/handle/123456789/79602| 標題: | 全景影片視覺顯著性預測與視覺偏差 Viewing Bias Matters in 360◦ Videos Visual Saliency Prediction |
| 作者: | Peng-Wen Chen 陳芃彣 |
| 指導教授: | 吳沛遠(Pei-Yuan Wu) |
| 關鍵字: | 視覺顯著性預測,深度學習,全景影片, Visual Saliency Detection,deep learning,panorama videos, |
| 出版年 : | 2021 |
| 學位: | 碩士 |
| 摘要: | 全景影片已經被廣泛應用於沈浸式內容、虛擬導覽和監控系統等許多領域,相較於平面影片,全景影片涵蓋了更多的資訊,要在資訊爆炸的全景影像中預測出顯著性區域更為困難。本文中,我們提出了一個視覺顯著性預測模型,它可以直接預測等距長方投影影片中的顯著性區域。過去的方法採用循環神經網路的架構作為視覺顯著性預測模型,不同於過去的方法,我們使用三維卷積於編碼器並泛化SphereNet卷積核以構建解碼器。我們進一步分析存在於不同全景影片資料集以及不同類型全景影片中視覺偏差的資料統計性,這為我們提供了對融合機制設計的見解,該融合機制以自適應方式將預測的顯著圖與視覺偏差相融合。我們提出的模型在各個資料集(例如:Salient360!,PVS,Sport360)都有最佳的結果。 |
| URI: | http://tdr.lib.ntu.edu.tw/jspui/handle/123456789/79602 |
| DOI: | 10.6342/NTU202103129 |
| 全文授權: | 同意授權(全球公開) |
| 顯示於系所單位: | 電信工程學研究所 |
文件中的檔案:
| 檔案 | 大小 | 格式 | |
|---|---|---|---|
| U0001-1209202114564600.pdf | 6.17 MB | Adobe PDF | 檢視/開啟 |
系統中的文件,除了特別指名其著作權條款之外,均受到著作權保護,並且保留所有的權利。
