Skip navigation

DSpace

機構典藏 DSpace 系統致力於保存各式數位資料(如:文字、圖片、PDF)並使其易於取用。

點此認識 DSpace
DSpace logo
English
中文
  • 瀏覽論文
    • 校院系所
    • 出版年
    • 作者
    • 標題
    • 關鍵字
    • 指導教授
  • 搜尋 TDR
  • 授權 Q&A
    • 我的頁面
    • 接受 E-mail 通知
    • 編輯個人資料
  1. NTU Theses and Dissertations Repository
  2. 電機資訊學院
  3. 資訊工程學系
請用此 Handle URI 來引用此文件: http://tdr.lib.ntu.edu.tw/jspui/handle/123456789/86492
標題: 使用視覺變換器於跨領域之人臉活體驗證
Domain Generalized Vision Transformer for Face Anti-Spoofing
作者: Chen-Hao Liao
廖晨皓
指導教授: 陳祝嵩(Chu-Song Chen)
關鍵字: 人臉活體驗證,深度學習,域泛化,視覺變換器,人臉辨識,
Face anti-spoofing,Deep learning,Domain generalization,Vision Transformer,Face recognition,
出版年 : 2022
學位: 碩士
摘要: 隨著人臉辨識被大量地應用在生活中,與人臉活體驗證相關的研究也越發蓬勃,現行有許多方法能夠在特定的資料及上有很好的效果;然而在實際的應用上,人臉活體驗證模型應該要能夠被泛化到各種未知的領域 (domain)。近期 Vision Transformer 模型展現其在學習「具良好辨別性的特徵」的強大以及在許多視覺任務上有很好的表現,我們將它使用在跨領域的人臉活體驗證上。在這篇論文,我們首先簡述目前在人臉活體驗證上的研究方向,接著介紹我們提出的方法:Domain-invariant Vision Transformer (DiVT)。我們利用了兩項損失函數讓模型能夠有更好的泛化能力:為了讓模型能得知有多種方式被用於偽造影像,我們將真實資料以及使用不同攻擊手段的偽造資料各自集成群體,並將這些群體分離。其次,我們要求模型學習一個能夠適用於各個領域的特徵,並讓真實資料在特徵空間中能夠更集中,以幫助模型能更容易的區分出真實影像。實驗結果顯示,我們的方法達成了目前在跨領域之人臉活體驗證的最佳表現,且相較於之前的模型更簡單卻更有效。
Face recognition becomes more and more prevalent these days, which leads to numerous studies in face anti-spoofing (FAS). Existing FAS models have achieved high performance on specific datasets. However, for the application of real-world systems, the FAS model should generalize to the data from unknown domains rather than only achieve good results on a single baseline. As vision transformer models have demonstrated astonishing performance and strong capability in learning discriminative representations, we investigate applying transformers to distinguish the face presentation attacks over unknown domains. In this thesis, we first give a brief review of the research directions in FAS studies, then we propose the Domain-invariant Vision Transformer (DiVT) for FAS, which adopts two losses to improve the generalizability of the model. First, to make the model leverage the knowledge about the spoof data consisting of different types of attack, a separation loss is utilized to unify the real faces and the same types of attack, respectively. Then these groups are separated in the embedding space. Second, a concentration loss is employed to learn a domain-invariant representation that centralizes the features of real face data regardless of their domains, which helps the model to distinguish the real faces more easily. The experimental results show that our approach achieves state-of-the-art performance on the protocols of domain-generalized FAS tasks. Compared to previous domain generalization FAS models, our method is simpler but more effective.
URI: http://tdr.lib.ntu.edu.tw/jspui/handle/123456789/86492
DOI: 10.6342/NTU202201649
全文授權: 同意授權(全球公開)
電子全文公開日期: 2022-08-18
顯示於系所單位:資訊工程學系

文件中的檔案:
檔案 大小格式 
U0001-2207202216462700.pdf5.22 MBAdobe PDF檢視/開啟
顯示文件完整紀錄


系統中的文件,除了特別指名其著作權條款之外,均受到著作權保護,並且保留所有的權利。

社群連結
聯絡資訊
10617臺北市大安區羅斯福路四段1號
No.1 Sec.4, Roosevelt Rd., Taipei, Taiwan, R.O.C. 106
Tel: (02)33662353
Email: ntuetds@ntu.edu.tw
意見箱
相關連結
館藏目錄
國內圖書館整合查詢 MetaCat
臺大學術典藏 NTU Scholars
臺大圖書館數位典藏館
本站聲明
© NTU Library All Rights Reserved