Skip navigation

DSpace

機構典藏 DSpace 系統致力於保存各式數位資料(如:文字、圖片、PDF)並使其易於取用。

點此認識 DSpace
DSpace logo
English
中文
  • 瀏覽論文
    • 校院系所
    • 出版年
    • 作者
    • 標題
    • 關鍵字
    • 指導教授
  • 搜尋 TDR
  • 授權 Q&A
    • 我的頁面
    • 接受 E-mail 通知
    • 編輯個人資料
  1. NTU Theses and Dissertations Repository
  2. 電機資訊學院
  3. 資訊工程學系
請用此 Handle URI 來引用此文件: http://tdr.lib.ntu.edu.tw/jspui/handle/123456789/69366
標題: 以全景影像生成任意的虛擬視角
Free-viewpoint Synthesis over Panoramic Images
作者: Tze-How Liew
劉志豪
指導教授: 歐陽明(Ming Ouhyoung)
關鍵字: 虛擬實境,視角生成,任意視角,全景影像,
Virtual reality,View synthesis,Free-viewpoint,Panorama image,
出版年 : 2018
學位: 碩士
摘要: 本論文提出使用少量的全景影像,就可以產生出使用者想要的虛擬視角,並可透過虛擬實境的裝置檢視內容,以達到沉浸式的體驗。一般上為了記錄一個場景,都需要拍攝大量的影像或者錄製一段影片,但拍攝大量的影像或者影片是一個成本相當高的事情,其中包括時間的消耗、裝置的儲存空間等等。因此,我們希望能提出一個系統和辦法,可以利用少量的影像就能產生足夠描述一個場景且使用者取向的資訊,並且結果是可令人接受的。我們提出的步驟包括:運動恢復結構(Structure from Motion)、影像的校正與深度估計(Image Rectification and Depth Estimation)、 3D 重建(3D Reconstruction)、視角合成(View Synthesis)。我們希望可以先透過運動恢復結構從拍攝到的影像中取得影像之間的旋轉和平移關係,再透過第二步的影像校正成對地算出視差,爾後再轉換成場景的深度。第三步的重建就是以算到的深度重建出 3D 點,然後把這些 3D 點連接起來形成三角形網格(Triangle Meshes)。最後,利用重建好的 3D 資訊產生虛擬視角的影像。
This thesis presents a method for a free viewpoint synthesis with a sparse view of panoramic images. Traditionally, the task of constructing a playback data set to navigate through a scene has required a particularly inefficient procedure. The conventional method of taking pictures and videos with a pinhole camera model is costly due to the slow run time and memory space required. We propose a method which takes advantage of a less costly setup and improves the visual quality of the final images. This method allows users to choose the desired viewpoint, as well as whether the output should be computed as a panoramic or perspective image. This entire procedure consists of four steps: structure from motion (SfM), image rectification and depth estimation, 3D reconstruction, and view synthesis. First, the extinsic parameters of the cameras are extracted by implementing the structure from motion algorithm/technique. Next, image pairs are rectified and their disparities can be computed, which can then be converted into depth maps for 3D reconstruction. Finally, the obtained 3D triangle meshes are transformed to the coordinates of target virtual camera, and the target image can be generated by intersecting rays with meshes.
URI: http://tdr.lib.ntu.edu.tw/jspui/handle/123456789/69366
DOI: 10.6342/NTU201801067
全文授權: 有償授權
顯示於系所單位:資訊工程學系

文件中的檔案:
檔案 大小格式 
ntu-107-1.pdf
  未授權公開取用
24.16 MBAdobe PDF
顯示文件完整紀錄


系統中的文件,除了特別指名其著作權條款之外,均受到著作權保護,並且保留所有的權利。

社群連結
聯絡資訊
10617臺北市大安區羅斯福路四段1號
No.1 Sec.4, Roosevelt Rd., Taipei, Taiwan, R.O.C. 106
Tel: (02)33662353
Email: ntuetds@ntu.edu.tw
意見箱
相關連結
館藏目錄
國內圖書館整合查詢 MetaCat
臺大學術典藏 NTU Scholars
臺大圖書館數位典藏館
本站聲明
© NTU Library All Rights Reserved