Skip navigation

DSpace

機構典藏 DSpace 系統致力於保存各式數位資料(如:文字、圖片、PDF)並使其易於取用。

點此認識 DSpace
DSpace logo
English
中文
  • 瀏覽論文
    • 校院系所
    • 出版年
    • 作者
    • 標題
    • 關鍵字
    • 指導教授
  • 搜尋 TDR
  • 授權 Q&A
    • 我的頁面
    • 接受 E-mail 通知
    • 編輯個人資料
  1. NTU Theses and Dissertations Repository
  2. 生物資源暨農學院
  3. 生物機電工程學系
請用此 Handle URI 來引用此文件: http://tdr.lib.ntu.edu.tw/jspui/handle/123456789/74919
完整後設資料紀錄
DC 欄位值語言
dc.contributor.advisor葉仲基
dc.contributor.authorChi-Yen Leeen
dc.contributor.author李其諺zh_TW
dc.date.accessioned2021-06-17T09:10:18Z-
dc.date.available2020-01-15
dc.date.copyright2020-01-15
dc.date.issued2019
dc.date.submitted2019-09-23
dc.identifier.citation行政院主計總處。2015。94年普查結果統計表。台北:行政院主計總處。網址:https://www.dgbas.gov.tw/ct.asp?xItem=38634&ctNode=3279&mp=1。上網日期:2018年12月1日。
行政院主計總處。2017。104年普查結果統計表。台北:行政院主計總處。網址:https://www.dgbas.gov.tw/ct.asp?xItem=41996&ctNode=3279&mp=1。上網日期:2018年12月1日。
楊智凱、施瑩艷、楊舒涵。2016。以智慧科技邁向臺灣農業4.0時代。網址:https://www.coa.gov.tw/ws.php?id=2505139。台北:行政院農委會。上網日期:2018年12月1日。
經濟能源農業處。2017。推動農業設施精進作為。台北:行政院經濟能源農業處。網址:https://www.ey.gov.tw/Page/448DE008087A1971/6e981c53-c7f2-4a30-afae-5c20a622c887#accesskey_c。上網日期:2018年12月1日。
蔣曜宇。2019。台廠前進貴州數博會,用機器人、分離式機櫃與智慧路燈打頭陣。數位時代網站。網址:https://www.bnext.com.tw/article/53427/bigdataexpo-guiyang-guizhou。上網日期:2019年6月15日。
Amadio, Lou. 2018. Bringing the power of Windows 10 to the Robot Operating System. Available at: https://blogs.windows.com/windowsexperience/2018/09/28/bringing-the-power-of-windows-10-to-the-robot-operating-system/. Accessesd 17 May 2019.
Girshick, Ross, Jeff Donahue, Trevor Darrell and Jitendra Malik. 2014. Rich Feature Hierarchies for Accurate Object Detection and Semantic Segmentation. The IEEE Conference on Computer Vision and Pattern Recognition (CVPR): 580-587.
Girshick, Ross. 2015. Fast R-CNN. The IEEE International Conference on Computer Vision (ICCV): 1440-1448.
He, Kaiming, Xiangyu Zhang, Shaoqing Ren and Jian Sun. 2016. Deep residual learning for image recognition. Proceedings of the IEEE conference on computer vision and pattern recognition: 770-778.
Krizhevsky, Alex, Ilya Sutskever and Geoffrey E. Hinton. 2012. Imagenet classification with deep convolutional neural networks. Advances in neural information processing systems: 1097-1105.
Mainetti, Luca, Luigi Patrono and Ilaria Sergi. 2014. A survey on indoor positioning systems. 2014 22nd International Conference on Software, Telecommunications and Computer Networks (SoftCOM): 111-120.
Redmon, Joseph and Ali Farhadi. 2018. YOLOv3: An Incremental Improvement. arXiv preprint arXiv:1804.02767.
Simonyan, Karen and Andrew Zisserman. 2014. Very deep convolutional networks for large-scale image recognition. arXiv preprint arXiv: 1409.1556.
Szegedy, Christian, Wei Liu, Yangqing Jia, Pierre Sermanet, Scott Reed, Dragomir Anguelov, Dumitru Erhan, Vincent Vanhoucke and Andrew Rabinovich. 2015. Going deeper with convolutions. Proceedings of the IEEE conference on computer vision and pattern recognition: 1-9.
dc.identifier.urihttp://tdr.lib.ntu.edu.tw/jspui/handle/123456789/74919-
dc.description.abstract臺灣地處亞熱帶,適合農作物生長,但是也容易受到病蟲害、天災等影響,使得露天栽培的農產品減產,生產成本偏高且平均耕地規模小。透過設施農業,我們可以進行生產環境的監控、作業流程自動化以及降低病蟲害以及天災的影響。而農業行為經常需要使用載具來承載相關的儀器、設施抑或是農作物,遵循智慧農業 4.0概念,本論文欲建立一無人農用載具定位系統,藉以輔助路徑規劃以及避障系統。
  其中,本論文使用的定位方法綜合了即時定位與地圖建構(SLAM)與視覺定位。在即時定位與地圖建構(SLAM)中,我們使用機器人作業系統(ROS)來建構程式內容,完成了無人載具於溫室內的點對點運輸問題。在視覺定位中,我們提出了兩種不同的監控相機架設模式,第一種為以監測影像平行於地面的方式架設,第二種為透過不平行的方式架設。前者在物件追蹤演算法上較為簡單且穩定,但是監控範圍受限於相機視角;後者在物件追蹤上需要使用深度學習的方法來達成,監控範圍較廣,但是誤差也較大。而論文中也比較了兩種將影像轉換至世界座標的方法,鳥瞰圖轉換法與全連接層轉換法,在三個不同的架設位置中,前者的平均誤差距離為0.10734公尺,後者為0.033525公尺。最後,透過結合即時定位與地圖建構(SLAM)與視覺定位,我們可以得到比原本精度更高的定位資訊,優化比例約3%~5%。
zh_TW
dc.description.abstractBecause Taiwan is located in the subtropical zone, it is suitable for crop growth. However, it is also susceptible to plant disease and natural calamity. Therefore, it reduces the production and then the costs of agricultural products would be risen. Through the establishment of facilities agriculture, we can monitor the production environment, automate the process and reduce the impact of plant disease and natural calamity. Agricultural activities often require the use of vehicles to carry related equipment, facilities or crops. Following the wisdom agriculture 4.0 concept, this paper wants to establish an agricultural vehicle positioning system to assist path planning and obstacle avoidance systems.
In this paper, the positioning method combines SLAM and visual orientation. In SLAM, we use the Robot Operating System (ROS) to construct the program and apply it to complete the point-to-point transportation problem in the greenhouse. In visual orientation, we propose two different modes to erect monitoring camera. The first mode is to erect the camera and let the monitoring image parallel to the ground. The second mode is non-parallel. The former is simple and stable on the object tracking, but the monitoring range is limited by the camera angle. The latter needs to use the deep learning method to achieve object tracking, and the monitoring range is wider, but the error is larger than the former. This paper also compares two methods of converting images coordinates to world coordinates, one is bird-eyes view transformation method and the other is fully-connected layer transformation method. Among the three different erection positions, the average error distance of the former is 0.10734 meters, and the latter is 0.033525 meter. Finally, by combining SLAM and visual orientation, we can obtain more accurate positioning information than the original, with an optimization ratio of about 3% to 5%.
en
dc.description.provenanceMade available in DSpace on 2021-06-17T09:10:18Z (GMT). No. of bitstreams: 1
ntu-108-R06631026-1.pdf: 4888526 bytes, checksum: 910e1d39aec036ab90bfe9a3c48ed277 (MD5)
Previous issue date: 2019
en
dc.description.tableofcontents目錄
誌謝 II
摘要 III
ABSTRACT IV
目錄 V
圖目錄 VIII
表目錄 X
第1章 前言 1
1.1 研究動機 1
1.2 目的 2
第2章 文獻探討 3
2.1 ROS機器人作業系統 3
2.1.1 ROS概述 3
2.1.2 ROS之間的溝通:話題(Topic) 3
2.1.3 ROS之間的溝通:服務(Service) 5
2.1.4 ROS間的共用參數:ROS Parameter 5
2.1.5 ROS的執行方法:ROS launch file 5
2.1.6 ROS應用範例 5
2.2 針孔相機模型 6
2.3 深度學習模型 7
2.3.1 全連接層 7
2.3.2 卷積神經網路 8
2.4 室內定位方法 9
2.5 視覺定位與物件追蹤 10
2.5.1 常見的物件追蹤技術 10
2.5.2 特定形狀的追蹤 10
2.5.3 深度學習方法於物件追蹤 13
第3章 材料與方法 15
3.1 材料規格介紹 15
3.1.1 載具 15
3.1.2 雷射測距儀 15
3.1.3 攝影機 15
3.2 設置硬體、軟體驅動與導航系統 17
3.2.1 系統架構 17
3.2.2 感測節點 19
3.2.3 控制節點 19
3.2.4 輸出節點 20
3.3 即時定位與地圖構建(SLAM) 21
3.3.1 系統架構 21
3.3.2 數學模型 22
3.3.3 GMAPPING 22
3.4 視覺定位 22
3.4.1 視覺定位架構 22
3.4.2 策略一:監測影像平行於地面 24
3.4.3 策略二:監測影像不平行於地面 25
3.5 於模擬環境中進行定位演算法之效能測試 27
3.5.1 架設模擬環境的目的 27
3.5.2 結合即時定位與地圖構建(SLAM)與視覺的定位資訊 30
第4章 結果與討論 32
4.1 視覺定位 32
4.1.1 策略一結果呈現 32
4.1.2 策略二結果呈現 32
4.2 視覺定位結合即時定位與地圖構建(SLAM) 38
第5章 結論與建議 40
參考文獻 41
附錄 44
dc.language.isozh-TW
dc.subject影像定位zh_TW
dc.subject無人載具zh_TW
dc.subject即時定位與地圖建構(SLAM)zh_TW
dc.subject雷射定位zh_TW
dc.subjectunmanned vehicleen
dc.subjectSLAMen
dc.subjectimage orientationen
dc.subjectlaser positioning systemen
dc.title設施內以影像與雷射為基礎之農用載具定位系統zh_TW
dc.titleA Positioning System for Agricultural Vehicles in Greenhouse Based on Image and Laser Methodsen
dc.typeThesis
dc.date.schoolyear108-1
dc.description.degree碩士
dc.contributor.oralexamcommittee黃振康,吳剛智
dc.subject.keyword無人載具,即時定位與地圖建構(SLAM),影像定位,雷射定位,zh_TW
dc.subject.keywordunmanned vehicle,SLAM,image orientation,laser positioning system,en
dc.relation.page52
dc.identifier.doi10.6342/NTU201902741
dc.rights.note有償授權
dc.date.accepted2019-09-24
dc.contributor.author-college生物資源暨農學院zh_TW
dc.contributor.author-dept生物產業機電工程學研究所zh_TW
顯示於系所單位:生物機電工程學系

文件中的檔案:
檔案 大小格式 
ntu-108-1.pdf
  未授權公開取用
4.77 MBAdobe PDF
顯示文件簡單紀錄


系統中的文件,除了特別指名其著作權條款之外,均受到著作權保護,並且保留所有的權利。

社群連結
聯絡資訊
10617臺北市大安區羅斯福路四段1號
No.1 Sec.4, Roosevelt Rd., Taipei, Taiwan, R.O.C. 106
Tel: (02)33662353
Email: ntuetds@ntu.edu.tw
意見箱
相關連結
館藏目錄
國內圖書館整合查詢 MetaCat
臺大學術典藏 NTU Scholars
臺大圖書館數位典藏館
本站聲明
© NTU Library All Rights Reserved