Skip navigation

DSpace

機構典藏 DSpace 系統致力於保存各式數位資料(如:文字、圖片、PDF)並使其易於取用。

點此認識 DSpace
DSpace logo
English
中文
  • 瀏覽論文
    • 校院系所
    • 出版年
    • 作者
    • 標題
    • 關鍵字
    • 指導教授
  • 搜尋 TDR
  • 授權 Q&A
    • 我的頁面
    • 接受 E-mail 通知
    • 編輯個人資料
  1. NTU Theses and Dissertations Repository
  2. 電機資訊學院
  3. 資訊網路與多媒體研究所
請用此 Handle URI 來引用此文件: http://tdr.lib.ntu.edu.tw/jspui/handle/123456789/80664
標題: 360MVSNet:基於360°影像之多視角立體視覺深度模型
360MVSNet: Deep Multi-­View Stereo Network with 360° Images
作者: Ching-Ya Chiu
邱靖雅
指導教授: 莊永裕(Yung-Yu Chuang)
關鍵字: 多視角立體視覺,360度影像,三維場景重建,全景影像,深度學習,電腦視覺,
Multi-View Stereo,360° Image,3D Scene Reconstruction,Equirectangular Image,Deep Learning,Computer Vision,
出版年 : 2021
學位: 碩士
摘要: 多視角立體視覺的目標是透過多張影像以及相對應的相機參數,還原場景的三維資訊。近年來,隨著深度學習的發展,許多論文在多視角立體視覺的題目上取得優異的成果。然而,在還原大型場景時,現有的方法會需要較多的勞力以確保取得的影像之間有足夠的重疊。因此,我們提出一個新的想法,使用全景影像作為多視角立體視覺的輸入以推斷場景的三維幾何資訊。全景圖的優點在於它們能夠獲得完整的環境訊息,並在單張影像中提供較廣泛且連續的資訊。為此,我們提出360MVSNet,一個用於360°影像的多視角立體視覺深度學習模型。為了使訓練的過程能夠考量到360°相機提供的幾何資訊,我們提出球型掃描的方法,根據所假設的深度將影像特徵投影到不同半徑的球體上做計算。透過多尺度的立體成本容積以及測量每個尺度模型的不確定性,我們能夠階段性的預測影像的深度,並生成高解析度的深度圖。除此之外,我們建立一個大型的合成資料集EQMVS,它包含50000張左右的RGB影像、深度圖以及相機參數。透過實驗結果證明,我們的模型在測試資料集以及真實世界的場景都能較完整的還原整個場景,同時在數據上超越其他的方法。
URI: http://tdr.lib.ntu.edu.tw/jspui/handle/123456789/80664
DOI: 10.6342/NTU202103906
全文授權: 同意授權(限校園內公開)
顯示於系所單位:資訊網路與多媒體研究所

文件中的檔案:
檔案 大小格式 
U0001-2010202100242300.pdf
授權僅限NTU校內IP使用(校園外請利用VPN校外連線服務)
3.79 MBAdobe PDF
顯示文件完整紀錄


系統中的文件,除了特別指名其著作權條款之外,均受到著作權保護,並且保留所有的權利。

社群連結
聯絡資訊
10617臺北市大安區羅斯福路四段1號
No.1 Sec.4, Roosevelt Rd., Taipei, Taiwan, R.O.C. 106
Tel: (02)33662353
Email: ntuetds@ntu.edu.tw
意見箱
相關連結
館藏目錄
國內圖書館整合查詢 MetaCat
臺大學術典藏 NTU Scholars
臺大圖書館數位典藏館
本站聲明
© NTU Library All Rights Reserved