Skip navigation

DSpace

機構典藏 DSpace 系統致力於保存各式數位資料(如:文字、圖片、PDF)並使其易於取用。

點此認識 DSpace
DSpace logo
English
中文
  • 瀏覽論文
    • 校院系所
    • 出版年
    • 作者
    • 標題
    • 關鍵字
    • 指導教授
  • 搜尋 TDR
  • 授權 Q&A
    • 我的頁面
    • 接受 E-mail 通知
    • 編輯個人資料
  1. NTU Theses and Dissertations Repository
  2. 電機資訊學院
  3. 資訊工程學系
請用此 Handle URI 來引用此文件: http://tdr.lib.ntu.edu.tw/jspui/handle/123456789/99164
標題: 基於潛在擴散模型的個人化對抗擾動用於臉部隱私保護
Personalized Adversarial Perturbations for Facial Privacy Protection Using Latent Diffusion Models
作者: 陳毅明
I-Ming Cheng
指導教授: 吳家麟
Ja-Ling Wu
關鍵字: 對抗擾動,對抗樣本,臉部辨識,潛空間擴散模型,交叉注意力圖,
Adversarial Perturbation,Adversarial Examples,Face Recognition,Latent Diffusion Model,Cross-Attention Maps,
出版年 : 2025
學位: 碩士
摘要: 基於深度神經網路的臉部辨識系統雖具備高度準確性,卻帶來嚴重的隱私風險,允許未經授權的識別與追蹤。對抗樣本能透過誤導模型分類來保護使用者隱私,但在實際應用中,必須在視覺品質、攻擊成功率與生成速度之間取得平衡。擴散模型近年被證明能產生高品質、自然且具強大攻擊效能的對抗樣本,然而其內在的多步驟取樣過程導致生成時間過長,限制了實用性。
為解決此問題,本文提出個人化對抗潛空間擾動方法,針對每位使用者在擴散模型的潛空間中訓練單一擾動,使其能快速生成對抗樣本,同時保有擴散模型特有的高視覺品質與攻擊效能。本文專注於黑箱目標冒充攻擊情境,目標是在無法存取模型內部的前提下,誘使臉部辨識系統將來源身份誤判為特定目標身份。我們設計了注意力語意損失以維護臉部語意特徵,並提出屬性注意力匹配損失以提升攻擊可轉移性。此外,本文也改良並應用記憶體高效梯度計算方法,以支援我們的多項損失設計並降低GPU記憶體使用量。實驗結果顯示,本方法能在維持高視覺真實度與實用生成速度的同時,達成優異的攻擊成功率。
Deep neural network–based face recognition systems pose serious privacy risks by enabling unauthorized identification and tracking. Adversarial examples provide a promising defense by forcing misclassification, but practical deployment requires balancing visual quality, attack success, and generation speed. Diffusion models have recently emerged as powerful tools for generating high-quality, natural-looking adversarial examples with strong attack performance. However, their inherent iterative sampling process results in long generation times, limiting practical use.
To address this limitation, we propose personalized adversarial latent perturbations, which train a single perturbation in the latent space of a diffusion model for each individual. This design enables rapid generation of adversarial examples while preserving the visual quality and strong attack performance characteristic of diffusion-based methods. Our approach targets the black-box targeted impersonation attack scenario, which aims to induce a facial recognition system to misclassify the source identity as a specific target without internal model access. We introduce attention semantic loss to maintain facial semantics and attribute attention matching loss to improve attack transferability. We also adapt a memory-efficient gradient computation method to support our complex loss functions while reducing GPU memory usage. Experimental results demonstrate that our method achieves strong attack success rates with high visual fidelity and practical generation times.
URI: http://tdr.lib.ntu.edu.tw/jspui/handle/123456789/99164
DOI: 10.6342/NTU202503151
全文授權: 同意授權(全球公開)
電子全文公開日期: 2025-08-22
顯示於系所單位:資訊工程學系

文件中的檔案:
檔案 大小格式 
ntu-113-2.pdf55.37 MBAdobe PDF檢視/開啟
顯示文件完整紀錄


系統中的文件,除了特別指名其著作權條款之外,均受到著作權保護,並且保留所有的權利。

社群連結
聯絡資訊
10617臺北市大安區羅斯福路四段1號
No.1 Sec.4, Roosevelt Rd., Taipei, Taiwan, R.O.C. 106
Tel: (02)33662353
Email: ntuetds@ntu.edu.tw
意見箱
相關連結
館藏目錄
國內圖書館整合查詢 MetaCat
臺大學術典藏 NTU Scholars
臺大圖書館數位典藏館
本站聲明
© NTU Library All Rights Reserved