Skip navigation

DSpace

機構典藏 DSpace 系統致力於保存各式數位資料(如:文字、圖片、PDF)並使其易於取用。

點此認識 DSpace
DSpace logo
English
中文
  • 瀏覽論文
    • 校院系所
    • 出版年
    • 作者
    • 標題
    • 關鍵字
    • 指導教授
  • 搜尋 TDR
  • 授權 Q&A
    • 我的頁面
    • 接受 E-mail 通知
    • 編輯個人資料
  1. NTU Theses and Dissertations Repository
  2. 電機資訊學院
  3. 電信工程學研究所
請用此 Handle URI 來引用此文件: http://tdr.lib.ntu.edu.tw/jspui/handle/123456789/69175
標題: 仿聽覺處理之聲音異常偵測
Humanoid Auditory Processing for Acoustic Anomaly Detection
作者: Che-Jui Chang
張哲睿
指導教授: 鄭士康(Shyh-Kang Jeng)
關鍵字: 居家機器人,聲音異常偵測,類神經網路,仿聽覺處理,
Household Robot,Acoustic Anomaly Detection,Deep Neural Networks,Humanoid Auditory Processing,
出版年 : 2018
學位: 碩士
摘要: 本論文針對居家機器人之應用,提出一個仿聽覺處理之模型,以解決居家異常聲音偵測之問題。首先,以類神經網路模型模擬大腦聽覺皮質區,取得語意抽象特徵,接著,在仿大腦前額葉模型中,利用語意符號的運算,在基底核區域辨別出正異常聲音。此外,本論文亦比較不同異常偵測方法之數值結果,所提出之方法能夠在測試集中取得最佳的結果(0.972 AUC),且僅需極少的運算時間即可完成偵測,相當適合作為居家機器人之聽覺應用模組。
This thesis focuses on the application of household robot and provides a humanoid auditory processing model to resolve the problem of acoustic anomaly detection in household environment. First, the proposed model uses deep neural networks to imitate auditory cortex in human brains, in order to extract abstract semantic features. Then, in the SPA module which imitates prefrontal cortex, the anomaly is detected at basal ganglia area by using symbolic computations. In addition, different anomaly detection methods are compared in this thesis. Our proposed method gets the best result on test set, with 0.972 AUC. Meanwhile, it takes less computational time to detect the anomaly, so it is very suitable for the application to a household robot.
URI: http://tdr.lib.ntu.edu.tw/jspui/handle/123456789/69175
DOI: 10.6342/NTU201801675
全文授權: 有償授權
顯示於系所單位:電信工程學研究所

文件中的檔案:
檔案 大小格式 
ntu-107-1.pdf
  未授權公開取用
4.86 MBAdobe PDF
顯示文件完整紀錄


系統中的文件,除了特別指名其著作權條款之外,均受到著作權保護,並且保留所有的權利。

社群連結
聯絡資訊
10617臺北市大安區羅斯福路四段1號
No.1 Sec.4, Roosevelt Rd., Taipei, Taiwan, R.O.C. 106
Tel: (02)33662353
Email: ntuetds@ntu.edu.tw
意見箱
相關連結
館藏目錄
國內圖書館整合查詢 MetaCat
臺大學術典藏 NTU Scholars
臺大圖書館數位典藏館
本站聲明
© NTU Library All Rights Reserved