跳至內容

Magnum IO

維基百科,自由的百科全書

Magnum IONVIDIA於2019年發布的一個軟體組件。[1]

原理

Magnum IO可以幫助數據繞過CPU,直接從存儲器到GPU、存儲和網絡設備來連結處理數據,在運算時候降低延遲,提升計算效率[2],將支持多伺服器、多 gpu 計算節點配置[3]

應用

Magnum IO主要服務在數據分析、高性能計算、深度學習方面領域[4][5],英偉達的HGX A100加入了NVIDIA Magnum IO GPUDirect Storage 軟體。[6]

Magnum IO將應用在Tursa超級計算機上,優化加速其粒子物理計算。[7]

發展

2021年6月,Nvidia發布Magnum IO 1.0版本[4]

參考文獻

  1. ^ Nvidia发布Azure云超级计算机、Magnum IO和Arm服务器架构参考平台. 至頂網. 2019-11-19 [2021-07-23]. (原始內容存檔於2021-07-23). 
  2. ^ NVIDIA发布Magnum IO,强化AI超级计算机性能表现. 騰訊網. 2019-11-19 [2021-07-23]. (原始內容存檔於2021-07-23). 
  3. ^ Nvidia GPU uncorks storage bottleneck with Magnum IO, claims 20x speed up. Blocks & Files. 2019-11-19 [2021-07-23]. (原始內容存檔於2021-07-23). 
  4. ^ 4.0 4.1 Nvidia finalizes GPUDirect Storage 1.0 to accelerate AI, HPC. Nvidia finalizes GPUDirect Storage 1.0 to accelerate AI, HPC. 2021-06-30 [2021-07-23]. (原始內容存檔於2021-07-24). 
  5. ^ KIOXIA’s PCIe 4.0 NVMe SSDs Now Qualified with NVIDIA Magnum IO GPUDirect Storage. HPCwire. 2021-04-21 [2021-07-23]. (原始內容存檔於2021-07-23). 
  6. ^ 超算TOP500榜单公布,英伟达AI优势前所未有?. 雷鋒網. 2021-06-29 [2021-07-23]. (原始內容存檔於2021-11-03). 
  7. ^ NVIDIA 赋能英国爱丁堡大学的新一代超级计算机. 新浪網. 2021-06-28 [2021-07-23]. (原始內容存檔於2021-07-23).