請用此 Handle URI 來引用此文件:
http://tdr.lib.ntu.edu.tw/jspui/handle/123456789/72321完整後設資料紀錄
| DC 欄位 | 值 | 語言 |
|---|---|---|
| dc.contributor.advisor | 李志中(Jyh-Jone Lee) | |
| dc.contributor.author | Kuan-Yu Lu | en |
| dc.contributor.author | 盧冠妤 | zh_TW |
| dc.date.accessioned | 2021-06-17T06:35:18Z | - |
| dc.date.available | 2020-08-23 | |
| dc.date.copyright | 2018-08-23 | |
| dc.date.issued | 2018 | |
| dc.date.submitted | 2018-08-15 | |
| dc.identifier.citation | [1] “兆和豐科技網頁” [Online]. Available: http://www.ura.com.tw/p3.html. [Accessed July 26, 2018]
[2] “SCHUNK Hompage,” [Online]. Available: https://www.auto-made.com/com/schunk/sell/itemid-1460.html. [Accessed July 26, 2018] [3] Guo-Shing Huang, Hsiung-Cheng Lin, & Po-Cheng Chen, “Robotic Arm Grasping and Placing Using Edge Visual Detection System,” Proceedings of the 8th Asian Control Conference (ASCC), Kaohsiung, Taiwan, 2011. [4] 江任捷,“演算法筆記” [Online]. Available: http://www.csie.ntnu.edu.tw/~u91029/ConvexHull.html. [Accessed July 26, 2018] [5] W. N. Martin, & J. K. Aggarwal, “Volumetric Descriptions of Objects from Multiple Views.” IEEE Transactions on Pattern Analysis and Machine Intelligence, Vol. PAMI-5, No. 2, pp. 150-158, 1983. [6] G. M. Bone, A. Lambert, & M. Edwards, “Automated Modeling and Robotic Grasping of Unknown Three-Dimensional Objects.” Proceedings of the 2008 IEEE International Conference on Robotics and Automation, Pasadena, CA, USA, 2008. [7] A. Makadia, A. Patterson, & K. Daniilidis, “Fully Automatic Registration of 3D Point Clouds.” Proceedings of the 2006 IEEE Computer Society Conference on Computer Vision and Pattern Recognition (CVPR’06), New York, USA, 2006. [8] D. Buchholz, M. Futterlieb, S. Winkelbach, & F. M. Wahl, “Efficient Bin-Picking and Grasp Planning Based on Depth Data.” Proceedings of the 2013 IEEE International Conference on Robotics and Automation, Karlsruhe, Germany, 2013. [9] Nguyen Thanh Hung, “3-D Object Recognition and Localization of Randomly Stacked Objects for Automation.” doctoral thesis, National Taipei University of Technology Electromechanical Technology, Taiper, Taiwan, 2015. [10] A. Saxena, J. Driemeyer, & A. Y. Ng, “Robotic Grasping of Novel Objects using Vision.” The International Journal of Robotics Research, Vol. 27, No. 2, pp. 157-173, 2008. [11] S. Stansfield. “Robotic Grasping of Unknown Objects: A Knowledge-based Approach.” The International Journal of Robotics Research, Vol. 10, No. 4, pp. 314-326, 1991. [12] 蔡佩佳,”電腦輔助夾爪選用規劃”,碩士論文,國立臺灣大學機械工程學系,台北,台灣,2013。 [13] D. Pham, & S. Yeo “A knowledge-based system for robot gripper selection: Implementation details.” International Journal of Machine Tools and Manufacture, Vol. 28, No. 4, pp. 315-324, 1988. [14] D. Pham, & S. Yeo “A knowledge-based system for robot gripper selection: Criteria for choosing grippers and surfaces for gripping.” International Journal of Machine Tools and Manufacture, Vol. 28, No. 4, pp. 301-313, 1988. [15] J. D. Wolter, R. A. Volz, & A. C. Woo “Automatic generation of gripping positions.” IEEE Transactions on Systems, Man, and Cybernetics, Vol. SMC-15, No. 2, pp. 204-213, 1985. [16] Y. Jiang, S. Moseson, & A. Saxena “Efficient grasping from RGBD images: Learning using a new rectangle representation.” Proceedings of the 2011 IEEE International Conference on Robotics and Automation, Shanghai, China, 2011. [17] S. Gottschalk, M. C. Lin, and D. Manocha, “OBBTree: A hierarchical structure for rapid interference detection.” Proceedings of the 23rd Annual Conference on Computer Graphics and Interactive Techniques, New Orleans, Louisiana, pp. 171–180, 1996. | |
| dc.identifier.uri | http://tdr.lib.ntu.edu.tw/jspui/handle/123456789/72321 | - |
| dc.description.abstract | 隨著自動化工廠越來越普及,人們開始追求更「聰明」的自動化系統,因此本研究建立了一套能利用點雲資訊規劃出物件之夾取位置及姿態的方法,可結合二指平行夾爪用於工業之自動夾取系統。首先,將物件之特徵向量與已儲存於資料庫中模型之特徵向量比對獲得物件的位置及姿態後,根據姿態從方向性邊界盒(Oriented Bounding Box,OBB)坐標系中選擇一個不會碰撞到桌面的軸向作為夾持軸,並將夾爪移動範圍內的點雲投影至和夾持軸垂直的指定平面上,使3D點雲資料簡化為2D來縮短運算時間。接下來,在附著於物件上的OBB坐標系中找出可行夾持位置及姿態後再根據評分及摩擦角大小選出相對於物件的最佳夾持位置及姿態,最後透過轉移矩陣將其轉換至機械手臂坐標系中。透過此方法能快速地計算出相對於物件的最佳夾持位置及姿態,並根據物件的擺放姿態調整夾持的方向使夾持結果更穩固。 | zh_TW |
| dc.description.abstract | With the increasing popularity of automated factories, people began to pursue the 'smart' automation systems. Therefore, this study established a method that uses the point cloud information to plan the gripping position and posture of the object for a robot. The method utilizes a two-fingered gripper and could be used in an automated system in industry. First, after the feature vector of the object is compared with the feature vector of the model stored in the database, the position and posture of the object are obtained. According to the posture, one of the axes in Oriented Bounding Box (OBB) coordinate system which could avoid gripper from crashing to the table is selected as the gripping axis. The point cloud within the moving range of the gripper is projected onto a specified plane perpendicular to the gripping axis, such that the attained 2D data can be utilized. Next, after finding the feasible gripping position and posture in OBB coordinate system attached to the object, the optimal gripping position and posture relative to the object are searched based on the gripping indecies. Finally, the gripping position and posture are converted to the global coordinate system such that the robot gripper can be moved to grip the object. | en |
| dc.description.provenance | Made available in DSpace on 2021-06-17T06:35:18Z (GMT). No. of bitstreams: 1 ntu-107-R05522623-1.pdf: 6016939 bytes, checksum: cc4d032a53f35641578f278c513c3438 (MD5) Previous issue date: 2018 | en |
| dc.description.tableofcontents | 目錄
誌謝 i 摘要 ii Abstract iii 目錄 iv 圖目錄 vi 表目錄 ix 第一章 緒論 1 1.1 前言 1 1.2 文獻回顧 3 1.2.1 辨識系統 3 1.2.2 決定夾取位置及姿態的方法 7 1.3 研究動機與目的 10 1.4 論文架構 11 第二章 3D物件之位置及姿態辨識 12 2.1 物件點雲 13 2.2 模型點雲 14 2.3 方向性邊界盒 14 第三章 OBB坐標系中最佳夾持位置及姿態 18 3.1 本研究之基本假設 19 3.2 將3D點雲資料簡化為2D 19 3.2.1 選擇夾持軸之設定 19 3.2.2 投影至指定平面 20 3.3 求物件之輪廓 21 3.3.1 初步輪廓 21 3.3.2 減少雜訊後之輪廓 23 3.4 最佳夾持位置及姿態及預備夾持位置及姿態 24 3.4.1 平行對邊 24 3.4.2 可行夾持位置及姿態 25 3.4.3 最佳夾持位置及姿態( Best Gripper Position and Posture, BGP ) 28 3.4.4 預備夾持位置及姿態( pre-Gripper Position and Posture, preBGP ) 29 第四章 坐標轉換 31 4.1 模型點雲坐標系轉換至OBB坐標系 32 4.2 從OBB坐標系轉換至機械手臂坐標系 33 4.2.1 從OBB坐標系轉換至工件坐標系 34 4.2.2 從工件坐標系轉換至機械手臂坐標系 35 4.3 使夾爪對齊最佳夾持位置及姿態 37 4.3.1 將工作坐標z軸對齊夾持軸 38 4.3.2 將夾爪轉至最佳夾持角度 39 4.3.3 計算最佳夾持位置之參數 40 第五章 測試結果與討論 42 5.1 測試流程 42 5.2 測試結果 43 5.2.1 夾持軸為±y軸的情況 43 5.2.2 夾持軸為±z軸的情況 51 5.3 結果討論 58 第六章 結論與未來展望 63 6.1 結論 63 6.2 未來展望 64 參考文獻 65 圖目錄 圖1.1 各式種類的夾爪[1-2] 3 圖1.2 各個視角拍攝出的物體輪廓[5] 4 圖1.3 將各個視角整合後的物件模型[5] 4 圖1.4 多視角2D影像結合點雲影像獲得物件模型之方法[6] 5 圖1.5 使用多個視角的點雲建立完整物件模型之方法[7] 6 圖1.6 夾持中心和其自由度及範圍[8] 7 圖1.7部分實驗結果[10] 8 圖2.1 點雲辨識系統之運作流程 12 圖2.2 物件點雲 13 圖2.3 模型點雲 14 圖2.4 方向性邊界盒及其上之坐標系統[9] 15 圖2.5 資料點所在坐標系與特徵向量組成之坐標系間的轉換 16 圖3.1 計算OBB坐標系中最佳夾持位置及姿態之步驟 18 圖3.2 判斷夾持軸正負向 20 圖3.3 指定平面上的a、b軸 21 圖3.4 尋找初步輪廓之方法 22 圖3.5 物件在指定平面上的初步輪廓 22 圖3.6 濾除輪廓雜訊之方法 23 圖3.7 減少雜訊後的輪廓 23 圖3.8 找平行對邊之方法 25 圖3.9 計算靜止角之方法 26 圖3.10 摩擦角φth計算方式 26 圖3.11 同時接觸兩夾持點的可行性 28 圖3.12 DS值計算方法 29 圖3.13 將DS值換算為評分 29 圖3.14 預備夾持位置與最佳夾持位置的相對關係 30 圖4.1 本文中各坐標系設定 31 圖4.2 本文坐標轉換流程 32 圖4.3 從匹配模型坐標系轉換至OBB坐標系 32 圖4.4 由模型點雲坐標系轉換至OBB坐標系結果 33 圖4.5 從OBB坐標系轉換至工件坐標系 34 圖4.6 人機介面所顯示之工件坐標系以及模型匹配結果 35 圖4.7 機械手臂坐標系和工件坐標系間的差異 36 圖4.8 夾爪上的工作坐標系(Working coordinate) 37 圖4.9 轉至最佳夾持角度 40 圖5.1 欲夾取物件 42 圖5.2 點雲資料處理結果(夾持軸±y) 44 圖5.3 辨識出A-y之OBB 45 圖5.4 模擬A-y結果 46 圖5.5 實測A-y結果 47 圖5.6 辨識出B-y之OBB 47 圖5.7 模擬B-y結果 48 圖5.8 實測B-y結果 49 圖5.9 辨識出C-y之OBB 49 圖5.10 模擬C-y結果 50 圖5.11 實測C-y結果 51 圖5.12 點雲資料處理結果(夾持軸±z) 51 圖5.13 辨識出A-z之OBB 53 圖5.14 模擬A-z結果 53 圖5.15 實測A-z結果 54 圖5.16 辨識出B-z之OBB 55 圖5.17 模擬B-z結果 55 圖5.18 實測B-z結果 56 圖5.19 辨識出C-z之OBB 57 圖5.20 模擬C-z結果 57 圖5.21 實測C-z結果 58 圖5.22 測試A-y之些微傾角 59 圖5.23 OBB坐標系中y、z軸辨識上的誤差 60 圖5.24 無法適用於目前尋找輪廓方法的情況 61 圖5.25 夾持軸非OBB軸向的情況 61 圖5.26 目前機械手臂第六軸旋轉的極限位置 62 表目錄 表4.1 不同夾持軸情況下所需做的特定轉動 39 表5.1 可行夾持位置及姿態之參數 44 表5.2 可行夾持位置及姿態之參數 52 表5.3 辨識結果與實際物件中心位置 59 | |
| dc.language.iso | zh-TW | |
| dc.subject | 自動夾持系統 | zh_TW |
| dc.subject | 機械手臂 | zh_TW |
| dc.subject | 點雲辨識 | zh_TW |
| dc.subject | 方向性邊界盒 | zh_TW |
| dc.subject | 坐標轉換 | zh_TW |
| dc.subject | robotic arm | en |
| dc.subject | Automatic gripping | en |
| dc.subject | point cloud identification | en |
| dc.subject | coordinate transformation | en |
| dc.subject | Oriented Bounding Box | en |
| dc.title | 結合點雲影像辨識之機器手臂夾取位置與姿態之設計 | zh_TW |
| dc.title | Design of the Robot Gripping Position and Orientation using Point Clouds Recognition | en |
| dc.type | Thesis | |
| dc.date.schoolyear | 106-2 | |
| dc.description.degree | 碩士 | |
| dc.contributor.oralexamcommittee | 陳亮嘉(Liang-Chia Chen),林鎮洲(Chen-Chou Lin) | |
| dc.subject.keyword | 自動夾持系統,機械手臂,點雲辨識,方向性邊界盒,坐標轉換, | zh_TW |
| dc.subject.keyword | Automatic gripping,robotic arm,point cloud identification,Oriented Bounding Box,coordinate transformation, | en |
| dc.relation.page | 67 | |
| dc.identifier.doi | 10.6342/NTU201803649 | |
| dc.rights.note | 有償授權 | |
| dc.date.accepted | 2018-08-16 | |
| dc.contributor.author-college | 工學院 | zh_TW |
| dc.contributor.author-dept | 機械工程學研究所 | zh_TW |
| 顯示於系所單位: | 機械工程學系 | |
文件中的檔案:
| 檔案 | 大小 | 格式 | |
|---|---|---|---|
| ntu-107-1.pdf 未授權公開取用 | 5.88 MB | Adobe PDF |
系統中的文件,除了特別指名其著作權條款之外,均受到著作權保護,並且保留所有的權利。
