NVIDIA 2023年发布的H100搭载80GB HBM内存,两者相乘,但当前AI根本设备的需求并未显示出任何放缓的迹象,取HBM分歧,正在Vera Rubin平台上单颗即可供给1536GB容量,间接将单加快器系统的内存天花板推到了接近2TB。单颗AI加快器所需的内存容量将大幅跃升至2TB,实现约25倍的增加。内存供给的扩张需要数年时间,取此同时,单颗AI加快器的内存容量和全球加快器摆设规模正正在同步扩张。Michael Dell还强调,