Skip navigation

DSpace

機構典藏 DSpace 系統致力於保存各式數位資料(如:文字、圖片、PDF)並使其易於取用。

點此認識 DSpace
DSpace logo
English
中文
  • 瀏覽論文
    • 校院系所
    • 出版年
    • 作者
    • 標題
    • 關鍵字
    • 指導教授
  • 搜尋 TDR
  • 授權 Q&A
    • 我的頁面
    • 接受 E-mail 通知
    • 編輯個人資料
  1. NTU Theses and Dissertations Repository
  2. 工學院
  3. 機械工程學系
請用此 Handle URI 來引用此文件: http://tdr.lib.ntu.edu.tw/jspui/handle/123456789/99276
標題: 手語機器人之軌跡規劃與即時控制
Trajectory Planning and Real-Time Control of the Sign Language Robot
作者: 郭晟銘
Cheng-Ming Kuo
指導教授: 黃漢邦
Han-Pang Huang
關鍵字: 手語機器人,人型機器人,臺灣手語,人體骨架辨識模型,視覺辨識,機器學習,動作模仿,手掌手臂系統,
sign language robot,humanoid robot,Taiwanese Sign Language,MediaPipe,visual recognition,machine learning,motion imitation system,hand-arm system,
出版年 : 2025
學位: 碩士
摘要: 隨著智慧機器人技術的持續進步,其應用逐步從工業任務延伸至人機互動領域。而機器人與使用者之間的溝通能力亦為重要研究議題。雖然語音與文字已廣泛應用於人機界面設計,但對於以手語作為主要溝通媒介的聾人而言,這類方式未必合適。因此,本研究旨在開發一套具備台灣手語溝通能力的機器人系統,透過手語辨識、動作模仿與展示手語語句動作,實現跟聾人之間的互動能力。
在辨識系統方面,本研究採用視覺骨架分析技術,利用 Google MediaPipe 架構萃取影像中人物之關節資訊,以降低原始影像特徵的處理複雜度。搭配機器學習辨識模型,進行動態手語詞彙與句子的辨識訓練。訓練資料來自臺灣大學機器人實驗室所建立的台灣手語影片資料集以及公開的資料集,來進行模型的訓練與測試。最終,此機器學習的方法也在台灣手語辨識研究中表現出不錯的辨識率。
在手語動作生成與模仿方面,本研究提出一套整合式手語模仿與控制系統,將辨識結果轉換為手語人型機器人手臂手掌的控制指令。該系統透過角度映射與運動解算,實現多關節的協調控制。此外,亦設計自碰撞避免機制與軌跡後處理方法,以提升模仿動作的穩定性與流暢性。最終結合雙臂的規劃與控制系統,實現機器人的手語動作展示。
整體實驗結果表示本系統能準確呈現複雜的台灣手語動作,並具備基本的手語辨識能力,為未來手語機器人在輔助聾人溝通和手語教學等應用令譽奠定基礎。
With the continuous advancement of intelligent robotics technology, applications have gradually expanded from industrial tasks to the domain of human–robot interaction. Communication between robots and users has thus become a critical area of research. While voice and text-based interfaces are widely adopted in human–computer interaction, such methods may not be suitable for individuals who rely primarily on sign language. Therefore, this study aims to develop a humanoid robot system capable of communicating using Taiwanese Sign Language (TSL), enabling interaction with the deaf community through sign language recognition, motion imitation, and full-sentence sign expression.
For the recognition component, this study adopts a visual skeleton-based analysis approach using Google MediaPipe to extract joint information from video frames, thereby reducing the complexity of processing raw image features. A machine learning model, trained on both a self-built TSL video dataset from the NTU Robotics Laboratory and publicly available datasets, is employed to recognize dynamic TSL words and sentences. The proposed approach demonstrates promising accuracy and efficiency in TSL recognition tasks.
In terms of sign language generation and imitation, this research presents an integrated control system that translates recognition results into joint control commands for the robot’s arms and hands. By mapping joint angles and solving inverse kinematics, the system achieves coordinated multi-joint control. Additionally, a self-collision avoidance mechanism and post-processing methods are implemented to enhance the stability and smoothness of imitated motions. The system ultimately integrates dual-arm planning and control to enable the humanoid robot to perform complete TSL sentence gestures.
Experimental results confirm that the proposed system can accurately reproduce complex TSL movements and possesses fundamental recognition capabilities. This work establishes a solid foundation for future applications of sign language robots in communication assistance, language education, and accessible human–robot interaction.
URI: http://tdr.lib.ntu.edu.tw/jspui/handle/123456789/99276
DOI: 10.6342/NTU202502705
全文授權: 未授權
電子全文公開日期: N/A
顯示於系所單位:機械工程學系

文件中的檔案:
檔案 大小格式 
ntu-113-2.pdf
  未授權公開取用
9.77 MBAdobe PDF
顯示文件完整紀錄


系統中的文件,除了特別指名其著作權條款之外,均受到著作權保護,並且保留所有的權利。

社群連結
聯絡資訊
10617臺北市大安區羅斯福路四段1號
No.1 Sec.4, Roosevelt Rd., Taipei, Taiwan, R.O.C. 106
Tel: (02)33662353
Email: ntuetds@ntu.edu.tw
意見箱
相關連結
館藏目錄
國內圖書館整合查詢 MetaCat
臺大學術典藏 NTU Scholars
臺大圖書館數位典藏館
本站聲明
© NTU Library All Rights Reserved