Skip navigation

DSpace

機構典藏 DSpace 系統致力於保存各式數位資料(如:文字、圖片、PDF)並使其易於取用。

點此認識 DSpace
DSpace logo
English
中文
  • 瀏覽論文
    • 校院系所
    • 出版年
    • 作者
    • 標題
    • 關鍵字
    • 指導教授
  • 搜尋 TDR
  • 授權 Q&A
    • 我的頁面
    • 接受 E-mail 通知
    • 編輯個人資料
  1. NTU Theses and Dissertations Repository
  2. 電機資訊學院
  3. 資訊工程學系
請用此 Handle URI 來引用此文件: http://tdr.lib.ntu.edu.tw/jspui/handle/123456789/98944
標題: 林定位:在野外定位不用全球衛星定位系統
LinLocalize: Global Navigation Satellite System (GNSS)-Free Localization in the Wild
作者: 林鋒
Feng Lin
指導教授: 傅楸善
Chiou-Shann Fuh
關鍵字: 無依賴GNSS定位,無人機導航,視覺地理定位,深度學習,特徵匹配,ResNet,NetVLAD,SuperGlue,
GNSS-Free Localization,UAV Navigation,Visual Geo-localization,Deep Learning,Feature Matching,ResNet,NetVLAD,SuperGlue,
出版年 : 2025
學位: 碩士
摘要: 無人機(UAV)在各種應用領域中發揮著重要作用,然而,其對全球導航衛星系統(GNSS)的依賴,在城市峽谷、茂密森林和室內環境等GNSS受限場景中面臨嚴峻挑戰。本研究探討了一種基於深度學習的無依賴GNSS定位方法,透過影像檢索與特徵匹配技術來提升無人機的自主定位能力。基於Deep Visual Geo-localization Benchmark框架 [Berton, Gabriele, et al. 2022],我們使用了一種結合ResNet [He, Zhang et al. 2016] 與NetVLAD [Arandjelovic, Gronat et al. 2016]進行全局影像檢索,並使用SuperGlue [Sarlin et al. 2020] 進行精細特徵匹配的方法。我們的方法在Visual Terrain Relative Navigation(VTRN)數據集(ALTO數據集的子集)[Cisneros, Ivan, et al. 2022] 上進行評估,該數據集涵蓋多種環境條件下的真實無人機影像。實驗結果顯示,我們的模型在Top-1檢索準確率達67.5%,在Top-20檢索準確率超過93%,提升了無人機在GNSS受限環境中的定位性能。然而,特徵匹配與位姿估計仍面臨挑戰,特別是在有極端視角與光照變化,或是缺乏特徵的地形等情境下。因此,未來研究將專注於提升多尺度特徵表示能力,結合混合式定位技術,並進一步優化模型於實際場景中的部署。本研究希望提升無人機自主導航與無依賴GNSS定位技術,促進其在各類受限環境中的應用發展。
Unmanned Aerial Vehicles (UAVs) play a crucial role in various applications, yet their reliance on Global Navigation Satellite System (GNSS) signals poses significant challenges in GNSS-denied environments such as urban canyons, dense forests, and indoor spaces. This research explores GNSS-free localization by leveraging deep learning-based image retrieval and feature matching techniques. Building upon the Deep Visual Geo-localization Benchmark framework [Berton, Gabriele, et al. 2022], we propose an approach integrating ResNet [He, Zhang et al. 2016] with NetVLAD [Arandjelovic, Gronat et al. 2016] for global image retrieval and SuperGlue [Sarlin et al. 2020] for fine-grained feature matching. Our method is evaluated on the Visual Terrain Relative Navigation (VTRN) dataset, a subset of the ALTO dataset [Cisneros, Ivan, et al. 2022], which provides real-world UAV imagery under diverse environmental conditions. Experimental results demonstrate that our model achieves 67.5% top-1 retrieval accuracy and over 93% accuracy within the top-20 matches, significantly improving UAV localization performance in GNSS-denied scenarios. However, challenges remain in feature matching and pose estimation, particularly under extreme viewpoint variations, lighting changes and terrain that lack of features. Future work will focus on enhancing robustness through multi-scale feature representation, hybrid localization techniques, and real-world deployment optimizations. Our research contributes to the advancement of autonomous UAV navigation, enabling more reliable and efficient operations in GPS-denied environments.
URI: http://tdr.lib.ntu.edu.tw/jspui/handle/123456789/98944
DOI: 10.6342/NTU202503330
全文授權: 同意授權(限校園內公開)
電子全文公開日期: 2025-08-21
顯示於系所單位:資訊工程學系

文件中的檔案:
檔案 大小格式 
ntu-113-2.pdf
授權僅限NTU校內IP使用(校園外請利用VPN校外連線服務)
2.6 MBAdobe PDF
顯示文件完整紀錄


系統中的文件,除了特別指名其著作權條款之外,均受到著作權保護,並且保留所有的權利。

社群連結
聯絡資訊
10617臺北市大安區羅斯福路四段1號
No.1 Sec.4, Roosevelt Rd., Taipei, Taiwan, R.O.C. 106
Tel: (02)33662353
Email: ntuetds@ntu.edu.tw
意見箱
相關連結
館藏目錄
國內圖書館整合查詢 MetaCat
臺大學術典藏 NTU Scholars
臺大圖書館數位典藏館
本站聲明
© NTU Library All Rights Reserved