請用此 Handle URI 來引用此文件:
http://tdr.lib.ntu.edu.tw/jspui/handle/123456789/50454
標題: | 基於像素級轉換的多尺度深度線上影片穩定 Multi-Scale Deep Online Video Stabilization with Pixel-Based Warping |
作者: | Yu-Ta Chen 陳禹達 |
指導教授: | 洪一平(Yi-Ping Hung) |
關鍵字: | 線上影片穩定,深度學習,多尺度架構,像素級轉換, online video stabilization,deep learning,multi-scale architecture,pixel-based warping, |
出版年 : | 2020 |
學位: | 碩士 |
摘要: | 本篇論文提出一個深度學習的方法來解決線上影片穩定的問題,我們建立了一個多尺度的架構,只需輸入給神經網絡當前不穩定的幀和歷史穩定過的幀而不需要任何未來的影像,即可實時的將不穩定影片轉換成穩定影片,另外我們的方法會生成像素級的轉換圖,相較於過去方法使用一個單應矩陣或者切成網格式的轉換在每一個像素的轉換可以更準確,除此之外,我們還提出了一個二階段訓練方式,可以讓訓練出來的結果更具有穩健性。從我們的實驗結果可以發現,我們方法相較於傳統方法減少了扭曲的現象,且比現有的基於深度學習的線上穩定方法表現更好,另外,相較於最先進的幾個影片穩定方法,我們的方法目前是最為快速的。 In this thesis, a learning-based method is proposed to solve the online video stabilization problems. We build a multi-scale architecture and can stabilize the unstable videos in real time after feeding current unstable frame and historical stable frames to the neural network without using any future frames. Our network can estimate a pixel-based warping map to make the transformations of each pixel more precise than just calculating a global homography or multiple homographies. Besides, a two-stage training method is proposed to train our network, which makes the network more robust. Experimental results show that our algorithm achieves comparable performance with traditional methods and has better results than the state-of-the-art online stabilization methods based on learning. Moreover, our approach has the highest processing speed than the state-of-the-art methods. |
URI: | http://tdr.lib.ntu.edu.tw/jspui/handle/123456789/50454 |
DOI: | 10.6342/NTU202002926 |
全文授權: | 有償授權 |
顯示於系所單位: | 資訊工程學系 |
文件中的檔案:
檔案 | 大小 | 格式 | |
---|---|---|---|
U0001-1108202013123200.pdf 目前未授權公開取用 | 1.81 MB | Adobe PDF |
系統中的文件,除了特別指名其著作權條款之外,均受到著作權保護,並且保留所有的權利。