請用此 Handle URI 來引用此文件:
http://tdr.lib.ntu.edu.tw/jspui/handle/123456789/7232
標題: | 線性單類支持向量機與支持向量數據域描述的對偶座標下降法 Dual Coordinate-Descent Methods for Linear One-Class SVM and SVDD |
作者: | Hung-Yi Chou 周弘逸 |
指導教授: | 林智仁(Chih-Jen Lin) |
關鍵字: | 區塊座標下降法,單類支持向量機,支持向量數據域描述, block coordinate descent,one-class SVM,support vector data description, |
出版年 : | 2019 |
學位: | 碩士 |
摘要: | 單類支持向量機和支持向量數據域描述是兩種有效的孤立點檢測技術,在核設定下,雖然這些技術已被成功使用在各項應用,但對於某些高維度資料,線性的,而非核的,單類支持向量機和支持向量數據域描述可以被考慮使用。過去於核化分類問題與線性分類問題的研究指出,特別設計過的最佳化演算法可以使線性的情況訓練更快速。然而,我們指出因為某些與標準線性支持向量機的差異,現有的演算法可能無法適用於單類的情況,於是我們為了線性單類支持向量機和支持向量數據域描述開發了一些新穎的座標下降法方法,並以實驗顯示了這些方法在於收斂速度的優勢。 One-class SVM and support vector data description (SVDD) are two effective outlier detection techniques. They have been successfully applied to many applications under the kernel settings, but for some high dimensional data, linear rather than kernel one-class SVM and SVDD may be more suitable. Past developments on kernel and linear classification have indicated that specially designed optimization algorithms can make the training for linear scenarios much faster. However, we point out that because of some differences from standard linear SVM, existing algorithms may not be suitable for one-class scenarios. We then develop some novel coordinate descent methods for linear one-class SVM and SVDD. Experiments demonstrate their superiority on the convergence speed. |
URI: | http://tdr.lib.ntu.edu.tw/jspui/handle/123456789/7232 |
DOI: | 10.6342/NTU201902086 |
全文授權: | 同意授權(全球公開) |
顯示於系所單位: | 資訊工程學系 |
文件中的檔案:
檔案 | 大小 | 格式 | |
---|---|---|---|
ntu-108-1.pdf | 1.16 MB | Adobe PDF | 檢視/開啟 |
系統中的文件,除了特別指名其著作權條款之外,均受到著作權保護,並且保留所有的權利。