請用此 Handle URI 來引用此文件:
http://tdr.lib.ntu.edu.tw/jspui/handle/123456789/63813| 標題: | 利用索引技術達到低於線性時間的支持向量機訓練 Indexed Optimization: Learning Ramp-Loss SVM in Sublinear Time |
| 作者: | EN-HSU YEN 嚴恩勗 |
| 指導教授: | 林守德 |
| 關鍵字: | 高維度索引,次線性時間,Ramp損失函數,支持向量機,凸鬆弛,大規模,有限記憶體, Multidimensional Indexing,Sublinear-time,Ramp-loss,SVM,Convex-Relaxation,Large-scale,Limited-Memory, |
| 出版年 : | 2012 |
| 學位: | 碩士 |
| 摘要: | 多維索引已頻繁用於在各種應用中的次線性時間近鄰搜索。在本文中,我們展示這種技術如何與與次線性稀疏學習問題結合,像是Ramp損失函數的SVM。我們提出一種outlier-free的凸鬆弛來解Ramp損失函數的SVM,並利用索引達到次線性時間的最佳化演算法,該演算法能在數據不能裝入記憶體的情境下解決大規模的問題。我們分別在充足和有限記憶體的條件下,與既有的線性SVM、Ramp損失SVM比較,其中我們的演算法不僅快許多倍,在大規模嘈雜的資料上亦能達到更好的精準度。 Multidimensional indexing has been frequently used for sublinear-time nearest neighbor search in various applications. In this paper, we demonstrate how this technique can be integrated into learning problem with sublinear sparsity like ramp-loss SVM. We propose an outlier-free convex-relaxation for ramp-loss SVM and an indexed optimization algorithm which solves large-scale problem in sublinear-time even when data cannot fit into memory. We compare our algorithm with state-of-the-art linear hinge-loss solver and ramp-loss solver in both sufficient and limited memory conditions, where our algorithm not only learns several times faster but achieves more accurate result on noisy and large-scale datasets. |
| URI: | http://tdr.lib.ntu.edu.tw/jspui/handle/123456789/63813 |
| 全文授權: | 有償授權 |
| 顯示於系所單位: | 資訊工程學系 |
文件中的檔案:
| 檔案 | 大小 | 格式 | |
|---|---|---|---|
| ntu-101-1.pdf 未授權公開取用 | 446.09 kB | Adobe PDF |
系統中的文件,除了特別指名其著作權條款之外,均受到著作權保護,並且保留所有的權利。
