Skip navigation

DSpace

機構典藏 DSpace 系統致力於保存各式數位資料(如:文字、圖片、PDF)並使其易於取用。

點此認識 DSpace
DSpace logo
English
中文
  • 瀏覽論文
    • 校院系所
    • 出版年
    • 作者
    • 標題
    • 關鍵字
    • 指導教授
  • 搜尋 TDR
  • 授權 Q&A
    • 我的頁面
    • 接受 E-mail 通知
    • 編輯個人資料
  1. NTU Theses and Dissertations Repository
  2. 文學院
  3. 語言學研究所
請用此 Handle URI 來引用此文件: http://tdr.lib.ntu.edu.tw/jspui/handle/123456789/93305
標題: 台灣華語圓唇元音感知中的體感與視覺影響
Somatosensory and Visual Influences on the Perception of Taiwan Mandarin Rounded Vowels
作者: 黃建誌
Jian-Zhi Huang
指導教授: 邱振豪
Chenhao Chiu
關鍵字: 多模態整合,語音感知,唇形姿態,高圓唇元音,台灣華語,
multimodal integration,speech perception,lip postures,high rounded vowels,Taiwan Mandarin,
出版年 : 2024
學位: 碩士
摘要: 語音是多模態的,不僅概括視覺還有體感的資訊來幫助我們對於語音理解。唇部作為多模態的發音器官,提供了一個很好的機會來探索這些感官系統之間的複雜交互作用。本論文旨在研究多模態唇部資訊是否影響台灣華語中的高圓唇元音的感知辨識。此外,還探討在高圓唇元音情境下的跨模態資訊整合及交互作用。每項實驗招募了三十位台灣華語母語者,分別進行三個實驗以檢驗:1)體感回饋對聽覺感知的影響,2)視覺資訊對聽覺感知的影響,以及3)體感和視覺資訊的一致性對聽覺感知的影響。受試者透過進行內在語言表現作為體感回饋(實驗一)、觀看視覺元音影片(實驗二),或在觀看視覺元音影片的同時進行內在語言表現(實驗三),以辨識從 /u/ 到 /y / 連續體的聽覺刺激。結果顯示,儘管 /u/ 和 /y/ 在舌位上有本質的不同,體感回饋和來自唇部的視覺資訊都能顯著影響高圓唇元音 /u/ 和 /y/ 的辨別。當兩種模態提供一致的信息時,跨模態資訊的交互作用顯示出正向的累加效果。此外,當兩種模態的信息不一致時,體感對比較大的人可能會更依賴體感回饋,而體感對比較小的人可能會更依賴視覺信息。總體來說,這些發現有助於我們理解語音感知以及揭示多模態整合本身的複雜性。
Speech is multimodal, incorporating not only vision but also the somatosensory system to enhance understanding. The lips, being a multimodal articulator, offer a unique window to explore the complex interactions across these sensory systems. This thesis focuses on investigating whether multimodal lip information influences the identification of high rounded vowels in Taiwan Mandarin. Additionally, it aims to explore the interactions of cross-modal information under the context of high rounded vowels. Thirty native Taiwan Mandarin speakers were recruited for each of the three experiments to examine: 1) the effect of somatosensory feedback on auditory perception, 2) the effect of visual information on auditory perception, and 3) the congruent effect of somatosensory and visual information on auditory perception. They were instructed to perform inner speech as somatosensory feedback (Experiment 1), watch visually articulated vowel videos (Experiment 2), or perform inner speech with the presence of visually articulated vowel videos (Experiment 3) for the respective three experiments while identifying the auditory stimuli from /u/ - /y/ continua. The results showed that both somatosensory feedback and visual information from the lips can significantly influence the categorization of the high rounded vowels /u/ and /y/, despite their intrinsic differences in tongue position. The interaction of cross-modal information showed an additive effect when congruent information from the two modalities was provided. Additionally, individuals with greater somatosensory contrasts may rely more on somatosensory feedback when incongruent information from the two modalities was provided, whereas individuals with lesser somatosensory contrasts may rely more on visual information in the same conditions. Overall, these findings contribute to our understanding of how we perceive speech, shedding light on the complexity of multimodal integration.
URI: http://tdr.lib.ntu.edu.tw/jspui/handle/123456789/93305
DOI: 10.6342/NTU202402131
全文授權: 同意授權(全球公開)
顯示於系所單位:語言學研究所

文件中的檔案:
檔案 大小格式 
ntu-112-2.pdf8.21 MBAdobe PDF檢視/開啟
顯示文件完整紀錄


系統中的文件,除了特別指名其著作權條款之外,均受到著作權保護,並且保留所有的權利。

社群連結
聯絡資訊
10617臺北市大安區羅斯福路四段1號
No.1 Sec.4, Roosevelt Rd., Taipei, Taiwan, R.O.C. 106
Tel: (02)33662353
Email: ntuetds@ntu.edu.tw
意見箱
相關連結
館藏目錄
國內圖書館整合查詢 MetaCat
臺大學術典藏 NTU Scholars
臺大圖書館數位典藏館
本站聲明
© NTU Library All Rights Reserved