Skip navigation

DSpace

機構典藏 DSpace 系統致力於保存各式數位資料(如:文字、圖片、PDF)並使其易於取用。

點此認識 DSpace
DSpace logo
English
中文
  • 瀏覽論文
    • 校院系所
    • 出版年
    • 作者
    • 標題
    • 關鍵字
  • 搜尋 TDR
  • 授權 Q&A
    • 我的頁面
    • 接受 E-mail 通知
    • 編輯個人資料
  1. NTU Theses and Dissertations Repository
  2. 電機資訊學院
  3. 資訊網路與多媒體研究所
請用此 Handle URI 來引用此文件: http://tdr.lib.ntu.edu.tw/jspui/handle/123456789/64626
標題: 用於商品識別與檢索的無監督式表徵之學習
Unsupervised Representation Learning for Product Identification and Retrieval
作者: Yi-Quan Jiang
蔣藝荃
指導教授: 林守德(Shou-De Lin)
關鍵字: 表徵學習,多任務學習,自注意力機制,自學習,商品標題表徵,商品相似度,
Representation Learning,Multitask Learning,Self-attention,Self-supervision,Product Title Representation,Product Similarity,
出版年 : 2021
學位: 碩士
摘要: 解決物件的相似性是數據科學中的一個持續存在的問題。在電子商務中,識別替代商品和搜尋相似商品都涉及相似度計算。收集淨化過的帶標記的數據集是非常昂貴。然而,無標籤的多模態數據一直在電子商務網站上生成,並且經常會出現相同類別的商品具有相似圖像或標題的情況。在本文中,我們利用商品的文本標題和圖像來訓練可將商品標題轉換為區分性表徵形式的無監督式模型。我們提出的模型集成了多任務學習和自注意力功能,可以融合文本和圖像特徵並提取商品類別資訊。我們還提出了一套新穎的自我監督機制和注意力規範,以增強學習商品類別表徵的能力。我們在兩個任務上評估我們的模型:商品識別任務和相似的商品檢索任務。結果表明,在這兩項任務上我們的模型優於近幾年提出的單模態和多模態方法。
Solving object similarity is an ongoing problem in data science. In the e-commerce retail, identifying alternative product and finding similar products both involve calculating similarity. Producing a dataset with clean labeled data is expensive. Nevertheless, unlabeled multimodal data is being generated on e-commerce websites all the time, and it is often the case that products of the same category have similar images or titles. In this paper, we leverage the aligned text and image data of e-commerce products to train an unsupervised model that transform product titles to discriminative representations. The model we proposed integrates multi-task learning and self-attention which can fuse text and image features and extract product category information. We also propose a self-supervision mechanism and a novel attention regularization to strengthen the ability to learn category-based product representations. We evaluate our model on two tasks: product identification and similar product retrieval. Results show that our model outperforms state-of-the-art unimodal methods and multi-modal methods recently proposed on both tasks.
URI: http://tdr.lib.ntu.edu.tw/jspui/handle/123456789/64626
DOI: 10.6342/NTU202100799
全文授權: 有償授權
顯示於系所單位:資訊網路與多媒體研究所

文件中的檔案:
檔案 大小格式 
U0001-2303202101593400.pdf
  目前未授權公開取用
1.46 MBAdobe PDF
顯示文件完整紀錄


系統中的文件,除了特別指名其著作權條款之外,均受到著作權保護,並且保留所有的權利。

社群連結
聯絡資訊
10617臺北市大安區羅斯福路四段1號
No.1 Sec.4, Roosevelt Rd., Taipei, Taiwan, R.O.C. 106
Tel: (02)33662353
Email: ntuetds@ntu.edu.tw
意見箱
相關連結
館藏目錄
國內圖書館整合查詢 MetaCat
臺大學術典藏 NTU Scholars
臺大圖書館數位典藏館
本站聲明
© NTU Library All Rights Reserved