請用此 Handle URI 來引用此文件:
http://tdr.lib.ntu.edu.tw/jspui/handle/123456789/46748完整後設資料紀錄
| DC 欄位 | 值 | 語言 |
|---|---|---|
| dc.contributor.advisor | 李琳山 | |
| dc.contributor.author | I-Hung Lin | en |
| dc.contributor.author | 林宜鴻 | zh_TW |
| dc.date.accessioned | 2021-06-15T05:27:14Z | - |
| dc.date.available | 2010-08-05 | |
| dc.date.copyright | 2010-08-05 | |
| dc.date.issued | 2010 | |
| dc.date.submitted | 2010-07-15 | |
| dc.identifier.citation | [1] Lawrence R. Rabiner, “A tutorial on hidden Markov models and selected applications in speech recognition,” Morgan Kaufmann Publishers Inc., San Francisco, CA, USA, 1990.
[2] T. Hofmann, “Probabilistic latent semantic analysis,” in Proceedings of the 15th Conference on Uncertainty in AI, 1999. [3] V. Stouten, K. Demuynck, and H. V. hamme, “Discovering phone patterns in spoken utterances by non-negative matrix factorization,” IEEE Signal Processing Letters, vol. 15, pp. 131–134, 2008. [4] H. V. hamme, “Integration of asynchronous knowledge sources in a novel speech recognition framework,” in Proceedings of ITRW on Speech Analysis and Processing for Knowledge Discovery, Aalborg, Denmark, Jun. 2008. [5] H. V. hamme, “HAC-models: a novel approach to continuous speech recognition,” in Interspeech, Brisbane, Australia, Sep. 2008, pp. 2554–2557. [6] Y.-c. Hsieh, Y.-t. Huang, C.-c. Wang, and L.-s. Lee, “Improved spoken document retrieval with dynamic key term lexicon and probabilistic latent semantic analysis (PLSA),” in IEEE International Conference on Acoustics, Speech and Signal Processing, May 2006. [7] S.-y. Kong and L.-s. Lee, “Improved spoken document summarization using probabilistic latent semantic analysis (PLSA),” in IEEE International Conference on Acoustics, Speech and Signal Processing, May 2006. [8] Bjorn Schuller, Felix Weninger, Martin Wollmer, Yang Sun, Gerhard Rigoll, “Non-Negative Matrix Factorization as Noise-Robust Feature Extractor For Speech Recognition,” in IEEE International Conference on Acoustics, Speech and Signal Processing, 2010. [9] J. Duchateau, T. Leroy, K. Demuynck, and H. Van hamme, “Fast speaker adaptation using non-negative matrix factorization,” in IEEE International Conference on Acoustics, Speech and Signal Processing, 2008. [10] C. Ding, T. Li, and W. Peng, “On the equivalence between non-negative matrix factorization and probabilistic latent semantic indexing,” Comput. Stat. Data Anal., vol. 52, no. 8, pp. 3913–3927, 2008. [11] D. D. Lee and H. S. Seung, “Algorithms for non-negative matrix factorization,” in Advances in Neural Information Processing Systems 13. MIT press, 2001. [12] C.-J. Lin, “Projected gradient methods for non-negative matrix factorization,” in Neural Computation 19, Oct. 2007. [13] E. Gaussier and C. Goutte, “Relation between PLSA and NMF and implications,” in Proceedings of the 28th annual international ACM SIGIR conference on Research and development in information retrieval. ACM, 2005, pp. 601–602. [14] F. K. Soong, A. E. Rosenberg, L. R. Rabiner, and B. H. Huang, “A vector quantization approach to speaker recognition,” in IEEE International Conference on Acoustics, Speech and Signal Processing, 1985, pp. 387–390. [15] J. R. Glass, “A probabilistic framework for segment-based speech recognition,” Computer Speech & Language, vol. 17, pp. 137–152, 2003. [16] A. P. Dempster, N. M. Laird, and D. B. Robin, “Maximum Likelihood from Incompleter Data via the EM Algorithm,” Journal of Royal Statist. , 1977. [17] J. T. Foote, “Decision-tree probability modeling for HMM speech recognition,” Ph.D. dissertation, Brown University, Providence, RI, 1993. [18] Y. Linde, A. Buzo, and R. M. Gray, “An algorithm for vector quantizer design,” IEEE Transactions on Communications, vol. 28, pp. 84–95, Jan. 1980. [19] K. K. Paliwal and B. S. Atal, “Efficient vector quantization of LPC parameters at 24 bits/frame,” in IEEE International Conference on Acoustics, Speech and Signal Processing, 1991. [20] Q. Zhu, B. Chen, N. Morgan, and A. Stolcke, “On using MLP features in LVCSR,” in Proc. ICSLP, Jeju, Korea, 2004, pp. 921–924. | |
| dc.identifier.uri | http://tdr.lib.ntu.edu.tw/jspui/handle/123456789/46748 | - |
| dc.description.abstract | 近年來有越來越多的研究致力於使用非督導式來抽取聲學的特徵,本研究以此為目標,嘗試提出使用機率式潛藏語意分析來抽取聲學特徵,而本研究所抽取的目標為不同音框數的語段(segment),抽出具有相同數目可比較的潛藏聲學特性(Acoustic Characteristic)。這些語段恰好會對應一個聲母或是韻母,當我們針對每個語段抽取完這些潛藏聲學特性後,我們使用各種方法來確認這些潛藏聲學特性是否具有意義。
首先我們使用最小距離法來分群,可以明顯看出這些潛藏聲學特性用於分群時已經可以看出顯著的效果,相近的聲韻母會先被群聚在一起,然而當我們要細分到每個聲韻母時,最小距離法仍稍嫌不夠,經由本研究的錯誤樣式分析可以知道,每個潛藏聲學特性帶有不一樣的鑑別特性,再加上音框順序性尚未被加入模型,因此我們引進了多層感知器來當作分類器,並重新設計了模型訓練架構。 在多層感知器的分類架構下,本研究先從串接不同數量維度的特性著手,因為不同數量維度的特性代表了所抽取的資訊的精細程度不同,利用它們的互補關係來增加聲韻母辨識正確率;再來本研究改變了抽取潛藏聲學特性的架構,我們將梅爾倒頻譜係數分割成好幾個部份,分開向量量化並抽取潛藏聲學特性,最後再串接所有子分割的潛藏聲學特性,期望能夠減少向量量化時的失真影響;另外,為了要解決本模型尚未加入音框順序性的問題,本研究從語段編碼上面著手,我們將相鄰的兩音框編碼合併在一起,重新編碼成一個新的編碼,再利用機率式潛藏語意分析,並串接各個子分割的潛藏聲學特性,這樣所抽取出來的潛藏聲學特性更能代表一個語段的性質;到目前為止我們已有了單連和雙連編碼潛藏聲學特性,這些潛藏聲學特性並包含了各種不同數目的抽取方式,本研究再將其全部串接起來,使得本研究能夠得到最好的聲韻母辨識正確率69.1%。 最終,本研究將這樣的潛藏聲學特性和傳統的大字彙辨識系統相互結合,使用兩階段辨識的方式,將潛藏聲學特性的聲韻母事後機率取對數後,並選取適當的權重,將其加入到第一階段的候選答案上,比起基礎實驗的結果能夠得到6.30%的相對進步率,從實驗結果可以知道,本研究所抽取的潛藏聲學特性具有聲學上的意義,其反應在大字彙辨識上的改善已經相當顯著。 | zh_TW |
| dc.description.provenance | Made available in DSpace on 2021-06-15T05:27:14Z (GMT). No. of bitstreams: 1 ntu-99-R97942121-1.pdf: 1986605 bytes, checksum: e4627df2e6edbe00c9b846630546083c (MD5) Previous issue date: 2010 | en |
| dc.description.tableofcontents | 摘要 i
圖目錄 v 表目錄 vii 第一章 導論 1 1.1 研究動機 1 1.2 研究主題相關背景 1 1.3 本論文的研究方法與成果 2 1.4 論文章節概要 3 第二章 背景知識簡介 5 2.1 大字彙中文連續語音辨識之基礎實驗架構 5 2.1.1 兩階段式的語音辨識原理與系統架構 5 2.1.2 聲學模型架構 6 2.1.3 語言模型架構 9 2.1.4 語音特徵參數抽取 10 2.1.5 基礎實驗語料 10 2.1.6 基礎實驗 11 2.2 語音特徵參數向量量化 11 2.3 機率式潛藏語意分析 13 2.3.1 潛藏觀念模型 14 2.3.2 使用最大期望值演算法(EM Algorithm)求取潛藏觀念模型 15 2.4 多層感知器 17 2.5 串接式模型 20 2.6 本章結論 22 第三章 聲學上的機率式潛藏語意分析模型 23 3.1 使用機率式潛藏語意分析模型抽取潛藏聲學特性 23 3.1.1 模型訓練語料 23 3.1.2 觀念與方法敘述 23 3.1.3 模型訓練流程 24 3.2 階層式群聚法分析 26 3.3 最小距離法的音群混淆分析 28 3.3.1 雙元音 30 3.3.2 塞音 31 3.3.3 擦音和塞擦音 31 3.4 本章結論 32 第四章 聲學上的機率式潛藏語意分析模型的改進 33 4.1 使用多層感知器來分類潛藏聲學特性 33 4.1.1 結合多層感知器 33 4.1.2 聲韻母的雙多層感知器 34 4.2 串接不同維度的潛藏聲學特性 36 4.3 分割語音特徵參數的訓練流程 38 4.4 前後音框相關性的訓練流程 41 4.5 單雙連編碼和跨維度間的整合 42 4.6 本章結論 43 第五章 整合潛藏聲學特性的大字彙辨識系統 45 5.1 實驗系統架構 45 5.2 實驗結果 46 5.3 本章結論 49 第六章 結論與展望 50 6.1 結論 50 6.2 展望 51 參考文獻 52 | |
| dc.language.iso | zh-TW | |
| dc.subject | 聲韻母語段 | zh_TW |
| dc.subject | 機率式潛藏語意分析 | zh_TW |
| dc.subject | 多層感知器 | zh_TW |
| dc.subject | 向量量化 | zh_TW |
| dc.subject | 潛藏聲學特性 | zh_TW |
| dc.subject | 重新計分 | zh_TW |
| dc.subject | PLSA | en |
| dc.subject | Initial-Final Segmant | en |
| dc.subject | Rescoring | en |
| dc.subject | Acoustic Characteristics | en |
| dc.subject | VQ | en |
| dc.subject | MLP | en |
| dc.title | 基於機率式潛藏語意分析之聲學特性及其在語音辨識上之應用 | zh_TW |
| dc.title | Acoustic Characteristics Based on Probabilistic Latent Semantic Analysis with Applications in Speech Recognition | en |
| dc.type | Thesis | |
| dc.date.schoolyear | 98-2 | |
| dc.description.degree | 碩士 | |
| dc.contributor.oralexamcommittee | 陳信宏,王小川,鄭秋豫 | |
| dc.subject.keyword | 機率式潛藏語意分析,多層感知器,向量量化,潛藏聲學特性,重新計分,聲韻母語段, | zh_TW |
| dc.subject.keyword | PLSA,MLP,VQ,Acoustic Characteristics,Rescoring,Initial-Final Segmant, | en |
| dc.relation.page | 54 | |
| dc.rights.note | 有償授權 | |
| dc.date.accepted | 2010-07-15 | |
| dc.contributor.author-college | 電機資訊學院 | zh_TW |
| dc.contributor.author-dept | 電信工程學研究所 | zh_TW |
| 顯示於系所單位: | 電信工程學研究所 | |
文件中的檔案:
| 檔案 | 大小 | 格式 | |
|---|---|---|---|
| ntu-99-1.pdf 未授權公開取用 | 1.94 MB | Adobe PDF |
系統中的文件,除了特別指名其著作權條款之外,均受到著作權保護,並且保留所有的權利。
