跳转到内容

Magnum IO

维基百科,自由的百科全书

Magnum IONVIDIA于2019年发布的一个软件组件。[1]

原理

Magnum IO可以帮助数据绕过CPU,直接从存储器到GPU、存储和网络设备来链接处理数据,在运算时候降低延迟,提升计算效率[2],将支持多服务器、多 gpu 计算节点配置[3]

应用

Magnum IO主要服务在数据分析、高性能计算、深度学习方面领域[4][5],英伟达的HGX A100加入了NVIDIA Magnum IO GPUDirect Storage 软件。[6]

Magnum IO将应用在Tursa超级计算机上,优化加速其粒子物理计算。[7]

发展

2021年6月,Nvidia发布Magnum IO 1.0版本[4]

参考文献

  1. ^ Nvidia发布Azure云超级计算机、Magnum IO和Arm服务器架构参考平台. 至顶网. 2019-11-19 [2021-07-23]. (原始内容存档于2021-07-23). 
  2. ^ NVIDIA发布Magnum IO,强化AI超级计算机性能表现. 腾讯网. 2019-11-19 [2021-07-23]. (原始内容存档于2021-07-23). 
  3. ^ Nvidia GPU uncorks storage bottleneck with Magnum IO, claims 20x speed up. Blocks & Files. 2019-11-19 [2021-07-23]. (原始内容存档于2021-07-23). 
  4. ^ 4.0 4.1 Nvidia finalizes GPUDirect Storage 1.0 to accelerate AI, HPC. Nvidia finalizes GPUDirect Storage 1.0 to accelerate AI, HPC. 2021-06-30 [2021-07-23]. (原始内容存档于2021-07-24). 
  5. ^ KIOXIA’s PCIe 4.0 NVMe SSDs Now Qualified with NVIDIA Magnum IO GPUDirect Storage. HPCwire. 2021-04-21 [2021-07-23]. (原始内容存档于2021-07-23). 
  6. ^ 超算TOP500榜单公布,英伟达AI优势前所未有?. 雷锋网. 2021-06-29 [2021-07-23]. (原始内容存档于2021-11-03). 
  7. ^ NVIDIA 赋能英国爱丁堡大学的新一代超级计算机. 新浪网. 2021-06-28 [2021-07-23]. (原始内容存档于2021-07-23).