Skip navigation

DSpace

機構典藏 DSpace 系統致力於保存各式數位資料(如:文字、圖片、PDF)並使其易於取用。

點此認識 DSpace
DSpace logo
English
中文
  • 瀏覽論文
    • 校院系所
    • 出版年
    • 作者
    • 標題
    • 關鍵字
    • 指導教授
  • 搜尋 TDR
  • 授權 Q&A
    • 我的頁面
    • 接受 E-mail 通知
    • 編輯個人資料
  1. NTU Theses and Dissertations Repository
  2. 電機資訊學院
  3. 資訊工程學系
請用此 Handle URI 來引用此文件: http://tdr.lib.ntu.edu.tw/jspui/handle/123456789/60502
標題: 以移動立體視覺相機搭配無監督式時間與空間特徵與監督式應用遞迴類神經網路進行動態物體偵測
Unsupervised Spatio-temporal Feature Learning and Supervised Recursive Neural Network learning for
Motion Segmentation from a Moving Stereo Camera
作者: Tsung-Han Lin
林宗翰
指導教授: 王傑智(Chieh-Chih (Bob)
關鍵字: 深度學習,遞迴類神經網路,移動立體視覺相機,動態物體偵測,時間與空間特徵學習,
Deep Learning,Autoencoders,Motion segmentation, Moving object detection,Reconstruction Independent Component Analysis,Recursive Neural Network,
出版年 : 2013
學位: 碩士
摘要: 本論文提出用深度學習(deep learning) 直接從原始資料無監督式
(unsupervisedly) 的學出動態物體的特徵。具體來說, ,深度學習的技術,像捲 積 (convolution), 兩個非線性的固定卷積 (pooling), 與堆疊 (stacking) ,會被運用來學習時間與空間特徵 (spatio-temporal features) 的多層次表示 (hierarchical representation)。本文是基於移動立體視覺相機的資料進行學習。時
間與空間特徵整合遞迴類神經網路 (Recursive Neural Network) 之後,就可以從影像中辨認出動態物體 (motion segmentation) 。實驗結果顯示,本文提出來的方法,比較於用點特徵 (point feature) 加上運動模型 (egomotion) 的方法,可以在難偵測點特徵的地方,提取特徵助於動態物體偵測
IN this work deep learning is used to unsupervisedly learn features directly from raw data. Instead of hand-engineering features for each new sensor input data, the system advantageously adapts to new data by unsupervised
learning. More specifically, deep learning techniques of convolution, pooling,and stacking are used to learn hierarchical representation of spatio-temporal features
from unlabeled stereo video data. The spatio-temporal features are learned based on Reconstruction Independent Component Analysis (RICA) autoencoder.The learned features are then applied to do motion segmentation on moving objects
in images from a moving stereo camera. In order to do so the spatio-temporalfeatures are extracted from image segments, and Recursive Neural Network is used to recursively build up a segmentation tree to segment out moving objects from the
scenes. To our knowledge, this is the first time deep learning is applied on learning spatio-temporal features together with motion segmentation (scene-parsing).
Comparing to moving object detection methods using point features with egomotion estimation, we show our features can be extracted in situations where good point features are not detectable. The system is evaluated with real-world data with
results similar to state-of-the-art, while achieving better detection in certain situations.
URI: http://tdr.lib.ntu.edu.tw/jspui/handle/123456789/60502
全文授權: 有償授權
顯示於系所單位:資訊工程學系

文件中的檔案:
檔案 大小格式 
ntu-102-1.pdf
  未授權公開取用
4.43 MBAdobe PDF
顯示文件完整紀錄


系統中的文件,除了特別指名其著作權條款之外,均受到著作權保護,並且保留所有的權利。

社群連結
聯絡資訊
10617臺北市大安區羅斯福路四段1號
No.1 Sec.4, Roosevelt Rd., Taipei, Taiwan, R.O.C. 106
Tel: (02)33662353
Email: ntuetds@ntu.edu.tw
意見箱
相關連結
館藏目錄
國內圖書館整合查詢 MetaCat
臺大學術典藏 NTU Scholars
臺大圖書館數位典藏館
本站聲明
© NTU Library All Rights Reserved