Skip navigation

DSpace

機構典藏 DSpace 系統致力於保存各式數位資料(如:文字、圖片、PDF)並使其易於取用。

點此認識 DSpace
DSpace logo
English
中文
  • 瀏覽論文
    • 校院系所
    • 出版年
    • 作者
    • 標題
    • 關鍵字
  • 搜尋 TDR
  • 授權 Q&A
    • 我的頁面
    • 接受 E-mail 通知
    • 編輯個人資料
  1. NTU Theses and Dissertations Repository
  2. 理學院
  3. 應用物理研究所
請用此 Handle URI 來引用此文件: http://tdr.lib.ntu.edu.tw/jspui/handle/123456789/95144
標題: 使用前饋式量子神經網路的量子分類器
Quantum Classifiers Using Measurement Feed-forward Quantum Neural Networks
作者: 呂柏融
Po-Jung Lu
指導教授: 管希聖
Hsi-Sheng Goan
關鍵字: 前饋神經網路,深度神經網路,量子機器學習,混合量子神經網路,變分量子電路,
feed-forward neural network,deep neural network,quantum machine learning,hybrid quantum neural network,variational quantum circuit,
出版年 : 2024
學位: 碩士
摘要: 單量子位元和多量子位元量子神經網絡的表達能力已被證明具有普遍性(universal),能夠逼近任何函數。然而,使用量子神經網路逼近任意函數通常需要相對較深的電路,這對於近期的量子設備來說可能不切實際。因此,本論文基於前人的工作,設計了一個混合量子神經網絡(hybrid QNN)電路,包括數據重新上傳電路(re-uploading circuit)和測量前饋電路(measurement feed-forward circuit),旨在通過前饋技術減少電路的深度和寬度。該混合電路具有模組化結構,允許靈活調整編碼閘數量、量子位元數量、數據重新上傳次數和前饋層數量。我們首先展示了前饋電路在分類任務中的能力及其在噪聲環境中的可行性。然後,我們將混合 QNN 電路應用於三個不同的分類問題,探索不同的電路結構和分類方法如何影響結果。最後,我們認為在經典神經網路中增加隱藏層和在QNN中增加前饋層有較大的相似性。
The expressibility of both single-qubit and multi-qubit quantum neural networks has been shown to be universal, capable of approximating any function. However, approximating an arbitrary function using a quantum neural network usually requires a relatively deep circuit, which could be impractical for near-term quantum devices. Consequently, this thesis designs a hybrid quantum neural network (QNN) circuit, building on previous work including data re-uploading and measurement feed-forward circuits, aiming to reduce circuit depth and width using feed-forward techniques. The hybrid circuit can be modularized, allowing flexibility in the number of encoding gates, qubit numbers, data re-uploading steps, and feed-forward layers. We first demonstrate the capability of the feed-forward circuit in classification tasks and its feasibility in noisy environments. We then apply the hybrid QNN circuit to three different classification problems, exploring how various circuit structures and classification methods influence the results. Finally, we argue that a closer analogy between increasing hidden layers in classical neural networks and increasing feed-forward layers in QNNs can be drawn.
URI: http://tdr.lib.ntu.edu.tw/jspui/handle/123456789/95144
DOI: 10.6342/NTU202404165
全文授權: 同意授權(全球公開)
顯示於系所單位:應用物理研究所

文件中的檔案:
檔案 大小格式 
ntu-112-2.pdf3.43 MBAdobe PDF檢視/開啟
顯示文件完整紀錄


系統中的文件,除了特別指名其著作權條款之外,均受到著作權保護,並且保留所有的權利。

社群連結
聯絡資訊
10617臺北市大安區羅斯福路四段1號
No.1 Sec.4, Roosevelt Rd., Taipei, Taiwan, R.O.C. 106
Tel: (02)33662353
Email: ntuetds@ntu.edu.tw
意見箱
相關連結
館藏目錄
國內圖書館整合查詢 MetaCat
臺大學術典藏 NTU Scholars
臺大圖書館數位典藏館
本站聲明
© NTU Library All Rights Reserved