Skip navigation

DSpace

機構典藏 DSpace 系統致力於保存各式數位資料(如:文字、圖片、PDF)並使其易於取用。

點此認識 DSpace
DSpace logo
English
中文
  • 瀏覽論文
    • 校院系所
    • 出版年
    • 作者
    • 標題
    • 關鍵字
    • 指導教授
  • 搜尋 TDR
  • 授權 Q&A
    • 我的頁面
    • 接受 E-mail 通知
    • 編輯個人資料
  1. NTU Theses and Dissertations Repository
  2. 工學院
  3. 機械工程學系
請用此 Handle URI 來引用此文件: http://tdr.lib.ntu.edu.tw/jspui/handle/123456789/65459
標題: 以主成份分析法建立靈活之擴增實境座標系統
A Flexible Augmented Reality Coordinate System Based on Principal Component Analysis
作者: Keng-Ho Chen
陳鏗合
指導教授: 陳湘鳳
關鍵字: 擴增實境,無標記追蹤,遮蔽,精確,靈活,
Augmented reality,markless tracking,occlusion,precision,flexible,
出版年 : 2012
學位: 碩士
摘要: 擴增實境(Augmented Reality, AR)是將虛擬物件與真實物件在電腦產生之影像場景下做結合之技術。其中無標記的追蹤方法是使用真實物件當追蹤目標,將虛擬物件擺放至電腦影像場景中。本研究的目標是建立一個以電腦視覺為基礎之無標記追蹤方法。
研究方法使用主成分分析法(Principal Component Analysis, PCA)與平方預測誤差(Squared Prediction Error, SPE),從真實物件的顏色特徵取得閥值,進行追蹤。該方法使用顏色特徵將虛擬物件放置於電腦影像場景中。實驗結果顯示,該方法可用於偵測顏色特徵,估計攝影機之內部參數與外部參數,並在即時電腦影像中建立擴增實境座標系統。
實驗結果中,將真實顏色物件放置於電腦影像場景中,使用四個或更多的真實顏色物件,在部分真實顏色物件被遮蔽時,還是可以進行攝影機的姿態計算,建立擴增實境座標系統。使用有限制條件之計算公式來測量追蹤之精確度,藉由真實顏色物件在影像中之位置座標,計算出真實顏色物件於真實空間中之位置座標。實驗結果顯示,在邊長為30公分之立方體空間中,該方法的誤差於為0.3公分左右。實驗結果顯示,該方法是靈活、快速且精確。
The goal of augmented reality (AR) research is to combine virtual objects with real objects in computer generated scenes. Markerless tracking methods use real object features to place virtual objects in computer generated scenes. The goal of this research study is to create a vision-based Markerless tracking method.
The method uses principal component analysis (PCA), squared prediction error (SPE) calculation, and feature extraction thresholds to extract color features from real objects. The method uses color feature to place virtual objects in computer generated scenes. Experimental results show the method can be used to detect color features, estimate camera pose parameters, and create 3D coordinate systems in real-time video camera images.
Experimental results were achieved by adding real colored objects to computer generated scenes. Four or more real colored objects were added to computer generated scenes, to handle occlusion effects for different camera pose parameters. A constraint function was used to measure tracking precision. The constraint function projects real object space and compares real object space feature points to image space feature point to determine tracking precision. Experimental results show that the method can be used to place virtual objects with, 0.3 cm precision in a 30 cm x 30 cm x 30 cm computer generated scene. Experimental results show that the method is flexible, fast, and precise.
URI: http://tdr.lib.ntu.edu.tw/jspui/handle/123456789/65459
全文授權: 有償授權
顯示於系所單位:機械工程學系

文件中的檔案:
檔案 大小格式 
ntu-101-1.pdf
  未授權公開取用
5.41 MBAdobe PDF
顯示文件完整紀錄


系統中的文件,除了特別指名其著作權條款之外,均受到著作權保護,並且保留所有的權利。

社群連結
聯絡資訊
10617臺北市大安區羅斯福路四段1號
No.1 Sec.4, Roosevelt Rd., Taipei, Taiwan, R.O.C. 106
Tel: (02)33662353
Email: ntuetds@ntu.edu.tw
意見箱
相關連結
館藏目錄
國內圖書館整合查詢 MetaCat
臺大學術典藏 NTU Scholars
臺大圖書館數位典藏館
本站聲明
© NTU Library All Rights Reserved