NVIDIA宣布下代AI服务器:288颗GPU+36颗CPU 800亿亿次每秒
9日消息,除了宣布专门用于大规模上下文处理的Rubin CPX,NVIDIA还同时披露了新一代AI服务器,规模和性能实现了大幅度的跃升。
“Vera Rubin NVL144”定位于AI训练与推理用途的旗舰产品,应该每个机架配颗Vera CPU、144颗Rubin GPU,同时搭.4PB/s超高带宽的HBM4(容量没说),以及多TB存储。
算力性能在NVFP4数据精度下可高.5 EFlops,也就是每亿亿次,对比GB300 NVL72提.3倍!
“Vera Rubin NVL144 CPX”又加入颗Rubin CPX,组成了单个机颗GPU、36颗CPU的庞大规模。
同时,它还.7PB/s带宽的HBM4内存、100TB高速存储,以及Quantum-X800 InfiniBand或者Spectrum-X以太网,搭配ConnectX-9 NIC网卡。
整机算力在NVFP4下达到了惊人 EFlops,即每亿亿次,对比GB300 NVL72提升𱅃.5倍。
如果有需要,可以将两台服务器组合在一起,配置和算力直接翻倍。
NVIDIA号称,有了这样的AI服务器,每投亿美元,就可以换亿美元的收获。
NVIDIA最新公布的路线图显示,Rubin GPU和相关系统将年底开始登场,2027年推出升级版Rubin Ultra,2028年则是全新的再下一代Feyman GPU,继续搭配Vera CPU。