Skip navigation

DSpace

機構典藏 DSpace 系統致力於保存各式數位資料(如:文字、圖片、PDF)並使其易於取用。

點此認識 DSpace
DSpace logo
English
中文
  • 瀏覽論文
    • 校院系所
    • 出版年
    • 作者
    • 標題
    • 關鍵字
    • 指導教授
  • 搜尋 TDR
  • 授權 Q&A
    • 我的頁面
    • 接受 E-mail 通知
    • 編輯個人資料
  1. NTU Theses and Dissertations Repository
  2. 電機資訊學院
  3. 電信工程學研究所
請用此 Handle URI 來引用此文件: http://tdr.lib.ntu.edu.tw/jspui/handle/123456789/94488
標題: 網格用於高斯潑濺的即時動態場景渲染
Real-Time Dynamic Scene Rendering with Voxelized Gaussian Splatting
作者: 吳軍霆
Chun-Tin Wu
指導教授: 楊奕軒
Yi-Hsuan Yang
共同指導教授: 陳駿丞
Jun-Cheng Chen
關鍵字: 深度學習,三維電腦視覺,三維高斯潑濺,動態場景渲染,
Deep Learning,3D Computer Vision,3D Gaussian Spatting,Dynamic Scene Rendering,
出版年 : 2024
學位: 碩士
摘要: 新視角合成在3D視覺應用中扮演著關鍵角色,如虛擬現實(VR)、增強現實(AR)和電影製作,能夠生成從場景中任意視點拍攝的圖像。這一任務對於動態場景至關重要,但由於複雜的運動和稀疏的數據,面臨諸多挑戰。為了解決這一任務並推動高質量渲染,神經輻射場(NeRF)被提出來通過使用神經隱式函數來表示場景。此外,其繼任者3D高斯濺射(3D-GS)通過採用高效的3D高斯投影進一步加速了渲染速度達到實時水平。然而,由於3D-GS的顯式特性,在使用4D數據渲染動態場景時,即使通過考慮高斯變形場來擴展3D-GS至4D高斯濺射(4D-GS)以實現準確和高效的渲染,其訓練和渲染成本仍然昂貴。
為了解決這些問題,本論文引入了基於網格的4D-GS方法,通過網格表示來進一步提高4D-GS在動態場景渲染中的效率。通過整合網格,我們的框架優化了計算複雜度,加速了處理時間,顯著減少了內存使用,同時保持了高渲染質量。這些在實時渲染能力方面的進步為未來在動態場景操控、重建和下游任務中的應用鋪平了道路。
Novel view synthesis plays a pivotal role in 3D vision applications like virtual reality (VR), augmented reality (AR), and movie production, enabling the generation of images from arbitrary viewpoints within a scene. This task, essential for dynamic scenes, faces challenges due to complex motion and sparse data. Neural Radiance Field (NeRF) has been proposed to tackle the task and advanced this field for high-quality rendering by representing scene with neural implicit functions. In addition, its successor, 3D Gaussian Splatting (3D-GS), have further accelerated the rendering speed to be real-time by employing efficient 3D Gaussian projections. However, due to the explicit nature of 3D-GS, when rendering dynamic scenes with 4D data, the training and rendering costs are still expensive, even after extending 3D-GS to 4D Gaussian Splatting (4D-GS) by considering temporal dynamics through leveraging Gaussian deformation fields for accurate and efficient rendering.
To address these issues, this thesis introduces Voxels to 4D-GS, enhancing 4D-GS with voxel-based representations for even greater efficiency in dynamic scene rendering. By integrating voxels, our framework optimizes computational complexity, accelerates processing times, and reduces memory usage significantly while maintaining high rendering quality. These advancements in real-time rendering capabilities pave the way for future applications in dynamic scene manipulation, reconstruction and downstream tasks.
URI: http://tdr.lib.ntu.edu.tw/jspui/handle/123456789/94488
DOI: 10.6342/NTU202404161
全文授權: 未授權
顯示於系所單位:電信工程學研究所

文件中的檔案:
檔案 大小格式 
ntu-112-2.pdf
  未授權公開取用
14.68 MBAdobe PDF
顯示文件完整紀錄


系統中的文件,除了特別指名其著作權條款之外,均受到著作權保護,並且保留所有的權利。

社群連結
聯絡資訊
10617臺北市大安區羅斯福路四段1號
No.1 Sec.4, Roosevelt Rd., Taipei, Taiwan, R.O.C. 106
Tel: (02)33662353
Email: ntuetds@ntu.edu.tw
意見箱
相關連結
館藏目錄
國內圖書館整合查詢 MetaCat
臺大學術典藏 NTU Scholars
臺大圖書館數位典藏館
本站聲明
© NTU Library All Rights Reserved