Skip navigation

DSpace

機構典藏 DSpace 系統致力於保存各式數位資料(如:文字、圖片、PDF)並使其易於取用。

點此認識 DSpace
DSpace logo
English
中文
  • 瀏覽論文
    • 校院系所
    • 出版年
    • 作者
    • 標題
    • 關鍵字
    • 指導教授
  • 搜尋 TDR
  • 授權 Q&A
    • 我的頁面
    • 接受 E-mail 通知
    • 編輯個人資料
  1. NTU Theses and Dissertations Repository
  2. 電機資訊學院
  3. 資訊工程學系
請用此 Handle URI 來引用此文件: http://tdr.lib.ntu.edu.tw/jspui/handle/123456789/78297
標題: 針對巨量資料分析的異質計算提升加速器的使用率與吞吐量
Increasing Utilization and Throughput of Accelerators in Heterogeneous Computing for Big Data Analytics
作者: Yu-Chen Wu
吳宇宸
指導教授: 郭大維(Tei-Wei Kuo)
共同指導教授: 葉彌妍(Mi-Yen Yeh)
關鍵字: 即時系統,圖形處理器,資料探勘,異質計算,深度學習,
Real-time system,GPU,data mining,heterogeneous computing,deep learning,
出版年 : 2020
學位: 博士
摘要: 異質計算提供了Big Data和人工智慧在效能、成本和功耗上很大的改善空間。各種加速器被設計出與通用的中央處理器(CPU)協同處理大量的資料。然而各硬體架構的限制與軟體的設計使得效能瓶頸依然存在。本論文分析加速器的低使用率議題與提出解決方案,以求更好地利用加速器於大數據分析。首先我們探討即時系統中同步協定對於加速器使用率的影響並提出改善方案來提高其使用率,同時我們保證即時系統的性質。第二部份我們探討大數據分析中,演算法無法妥善利用圖形處理器(GPU)的問題。我們以經典的頻繁樣式探勘演算法-FP-growth當作研究案例,提出了適合GPU的資料結構以及演算法,藉此消除大量記憶體配置的開銷。最後,我們進一步探討多GPU系統中,在考量GPU的拓樸下如何有效地使用GPU。我們針對多工環境下的深度學習訓練,提出共享多GPU系統的排程機制以達到最小化平均工作完成時間的目的。本論文中的解決方案經由實驗與分析,均證實了對於聲稱的目標有顯著的效果。
Heterogeneous computing provides tremendous opportunities in performance, cost, and energy optimizations to Big Data and Artificial Intelligence applications. Various accelerators, such as GPU, or hardware architectures are designed to work together with general-purpose CPUs in large-scaled data processing. However, there are still inevitable processing bottlenecks between hardware components, due to architecture constraints and applications’ designs and behaviors. This dissertation is to address the utilization issues and their solutions to better utilize accelerators in large-scaled data processing. Frist, we exploit synchronization protocols for accelerators to improve the accelerator utilization as well as to guarantee the real-time requirements of the system. In the second part of the dissertation, we then explored the GPU-utilization problems in running algorithms behind Big Data processing. The classical FP-growth frequent pattern mining algorithm was taken as an example in the study, and a GPU-friendly algorithm was proposed by transforming recursive function calls into iterative ones and also by minimizing massive dynamic memory allocations. In the third part of the dissertation, we further explored both the GPU topology of servers and how effectiveness GPUs could be utilized by applications. A scheduling policy is presented for users in sharing GPU-powered servers for deep learning workloads, with an objective to minimize the average job completion time. The proposed solutions in this dissertation were all verified by experiments and/or analysis so as to show the effectiveness in resolving each respectively identified problem.
URI: http://tdr.lib.ntu.edu.tw/jspui/handle/123456789/78297
DOI: 10.6342/NTU202002686
全文授權: 有償授權
電子全文公開日期: 2025-08-08
顯示於系所單位:資訊工程學系

文件中的檔案:
檔案 大小格式 
U0001-0808202017441400.pdf
  未授權公開取用
2.7 MBAdobe PDF
顯示文件完整紀錄


系統中的文件,除了特別指名其著作權條款之外,均受到著作權保護,並且保留所有的權利。

社群連結
聯絡資訊
10617臺北市大安區羅斯福路四段1號
No.1 Sec.4, Roosevelt Rd., Taipei, Taiwan, R.O.C. 106
Tel: (02)33662353
Email: ntuetds@ntu.edu.tw
意見箱
相關連結
館藏目錄
國內圖書館整合查詢 MetaCat
臺大學術典藏 NTU Scholars
臺大圖書館數位典藏館
本站聲明
© NTU Library All Rights Reserved