請用此 Handle URI 來引用此文件:
http://tdr.lib.ntu.edu.tw/jspui/handle/123456789/35240
標題: | 類神經網路自組織增強式學習模型 Self-Organizing Reinforcement Learning Model |
作者: | Chang-Hsian Uang 汪昌賢 |
指導教授: | 劉長遠(Cheng-Yuan Liou) |
關鍵字: | 增強式學習,自組織映射圖網路,Q-learning,SARSA,Unsupervised learning, Reinforcement learning,Self-Organizing Maps,Q-learning,SARSA,Unsupervised learning, |
出版年 : | 2011 |
學位: | 碩士 |
摘要: | 在這篇論文中主要提出了一種增強式學習(Reinforcement Learning, RL)的運動行為控制模型,該模型是由大腦皮質層的組織原則做為啟發,基於大腦皮質層上的感覺和運動區域功能來做模擬。自組織映射圖網路(Self-Organizing Maps, SOM)已經被證明在模擬腦皮質的拓撲功能上非常有效,利用這個特性做為外部環境的狀態對該模型激刺的一個感覺中介層,同樣的,也做為運動行為輸出的中介層,然後模型內使用一種具有相鄰函式(neighborhood function)的SARSA Q-learning演算法。由於有了SOM做為中介,原始的增強式學習在連續空間上所造成的查表過大問題得以解決,最後該模型能夠將連續空間上的狀態對映到連續的運動行為空間上。 In this thesis, we propose a motor control model based on reinforcement learning (RL). The model is inspired by organizational principles of the cerebral cortex, specifically on cortical maps and functional hierarchy in sensory and motor areas of the brain. Self-Organizing Maps (SOM) have proven to be useful in modeling cortical topological maps. The SOM maps the input space in response to the real-valued state information, and a second SOM is used to represent the action space. We use a neighborhood update version of the SARSA Q-learning algorithm, and the SOM is a practical tool for Q-function to avoid representing in a large tabular form when the state or action space is continuous or very large. The final model can map a continuous input space to a continuous action space. |
URI: | http://tdr.lib.ntu.edu.tw/jspui/handle/123456789/35240 |
全文授權: | 有償授權 |
顯示於系所單位: | 資訊工程學系 |
文件中的檔案:
檔案 | 大小 | 格式 | |
---|---|---|---|
ntu-100-1.pdf 目前未授權公開取用 | 2.5 MB | Adobe PDF |
系統中的文件,除了特別指名其著作權條款之外,均受到著作權保護,並且保留所有的權利。