Please use this identifier to cite or link to this item:
http://tdr.lib.ntu.edu.tw/jspui/handle/123456789/80664| Title: | 360MVSNet:基於360°影像之多視角立體視覺深度模型 360MVSNet: Deep Multi-View Stereo Network with 360° Images |
| Authors: | Ching-Ya Chiu 邱靖雅 |
| Advisor: | 莊永裕(Yung-Yu Chuang) |
| Keyword: | 多視角立體視覺,360度影像,三維場景重建,全景影像,深度學習,電腦視覺, Multi-View Stereo,360° Image,3D Scene Reconstruction,Equirectangular Image,Deep Learning,Computer Vision, |
| Publication Year : | 2021 |
| Degree: | 碩士 |
| Abstract: | 多視角立體視覺的目標是透過多張影像以及相對應的相機參數,還原場景的三維資訊。近年來,隨著深度學習的發展,許多論文在多視角立體視覺的題目上取得優異的成果。然而,在還原大型場景時,現有的方法會需要較多的勞力以確保取得的影像之間有足夠的重疊。因此,我們提出一個新的想法,使用全景影像作為多視角立體視覺的輸入以推斷場景的三維幾何資訊。全景圖的優點在於它們能夠獲得完整的環境訊息,並在單張影像中提供較廣泛且連續的資訊。為此,我們提出360MVSNet,一個用於360°影像的多視角立體視覺深度學習模型。為了使訓練的過程能夠考量到360°相機提供的幾何資訊,我們提出球型掃描的方法,根據所假設的深度將影像特徵投影到不同半徑的球體上做計算。透過多尺度的立體成本容積以及測量每個尺度模型的不確定性,我們能夠階段性的預測影像的深度,並生成高解析度的深度圖。除此之外,我們建立一個大型的合成資料集EQMVS,它包含50000張左右的RGB影像、深度圖以及相機參數。透過實驗結果證明,我們的模型在測試資料集以及真實世界的場景都能較完整的還原整個場景,同時在數據上超越其他的方法。 |
| URI: | http://tdr.lib.ntu.edu.tw/jspui/handle/123456789/80664 |
| DOI: | 10.6342/NTU202103906 |
| Fulltext Rights: | 同意授權(限校園內公開) |
| Appears in Collections: | 資訊網路與多媒體研究所 |
Files in This Item:
| File | Size | Format | |
|---|---|---|---|
| U0001-2010202100242300.pdf Access limited in NTU ip range | 3.79 MB | Adobe PDF |
Items in DSpace are protected by copyright, with all rights reserved, unless otherwise indicated.
