Warning: mkdir(): No space left on device in /www/wwwroot/New.4.com/func.php on line 127

Warning: file_put_contents(./cachefile_yuan/tsxingyuan.com/cache/8a/31664/5c026.html): failed to open stream: No such file or directory in /www/wwwroot/New.4.com/func.php on line 115
剛剛,英偉達祭出下一代GPU!狂飆百萬token巨獸,投1億爆賺50億 -金龜換酒網






国产AV蜜桃网站,蜜桃成人无码区免费视频网站,水蜜桃黄片亚洲,国产精品福利免费无码蜜桃

金龜換酒網

剛剛,英偉達祭出下一代GPU!狂飆百萬token巨獸,投1億爆賺50億

來源:金龜換酒網-工人日報
2025-09-14 16:54:33

新智元報道

編輯:元宇

【新智元導讀】昨天,英偉達重磅發布了專為海量上下文AI打造的CUDA GPU——Rubin CPX,將大模型一次性推理帶入「百萬Token時代」。NVIDIA創始人兼CEO黃仁勳表示,Vera Rubin平台將再次推動AI計算的前沿,不僅帶來下一代Rubin GPU,也將開創一個CPX的全新處理器類別。

「百萬Token怪獸」出世!

昨天,NVIDIA突放大招,推出了Rubin CPX,這是一款專為大規模上下文推理而設計的全新GPU。

它的性能,是Vera Rubin NVL144平台的2倍多,是基於Blackwell Ultra的GB300 NVL72機架式係統的7.5倍!

它具有單機架8 EFLOPS的NVFP4計算力、100TB高速內存與1.7 PB/s的內存帶寬、128GB的高性價比GDDR7顯存。

相比較NVIDIA GB300 NVL72係統,Rubin CPX帶來了3倍的注意力機製處理能力。

性能巨獸,在變現能力上更是不容小覷。

每投入1億美元,最高可以帶來50億美元的Token收入!

Rubin CPX

開創CPX全新處理器類別

Rubin CPX基於Rubin架構構建,是首款專為海量上下文AI打造的CUDA GPU,能夠在同一時間推理跨越數百萬個知識標記的模型。

可以說,Rubin CPX是專為破解AI「長上下文」瓶頸而生的「特種兵」。

它的出現,為AI帶來了百萬Token級推理場景下的性能和效率的新突破。

依托於全新的NVIDIA Vera Rubin NVL144 CPX平台,Rubin CPX與NVIDIA Vera CPU和Rubin GPU緊密協同,可以支持多步推理、持久化記憶與長時程上下文,這讓它在麵對軟件開發、視頻生成、深度研究等領域的複雜任務時,更加遊刃有餘。

這也意味著在Rubin CPX的最新加持下,AI編碼將從簡單的代碼生成工具,升級為能夠理解並優化大規模軟件項目的複雜係統。

同樣,它還可以滿足長視頻與研究類應用領域,在數百萬Token級別上保持持續一致性與記憶的需求。

這些需求,都在逼近當前基礎設施的極限。

NVIDIA創始人兼CEO黃仁勳表示,Vera Rubin平台將再次推動AI計算的前沿,也將開創一個CPX的全新處理器類別。

「正如RTX顛覆了圖形與物理AI一樣,Rubin CPX是首個專為海量上下文AI打造的CUDA GPU,模型能夠一次性跨越數百萬個Token的知識進行推理。」

目前,Cursor、Runway和Magic等AI先鋒企業,正在積極探索Rubin CPX在應用加速上的新可能。

30-50倍ROI

重寫推理經濟

Rubin CPX通過解耦式推理創新,可以企業帶來30-50倍ROI,重寫推理經濟。

大模型的推理,主要分為上下文和生成兩個階段。

它們對於基礎設施的要求,也存在著本質性的差異。

上下文階段,以計算受限為主,需要高吞吐處理來攝取並分析海量輸入數據,以產出第一個Token的輸出結果。

而生成階段,則以內存帶寬受限為主,依賴快速的內存傳輸與高速互聯(如NVLink)來維持逐Token的輸出性能。

解耦式推理,可以讓這兩個階段獨立處理,從而更加針對性地優化算力與內存資源,提升吞吐,降低時延,增強整體資源的利用率。

但解耦式推理,也帶來了新的複雜性層次,需要在低時延KV緩存傳輸、麵向大模型感知的路由,以及高效內存管理之間進行精確協調。

這離不開NVIDIA Dynamo,它作為以上組件的編排層,發揮著關鍵作用。

Rubin CPX是專為大語言模型(尤其是百萬Token上下文)推理設計的「專用加速器」。

Rubin CPX與NVIDIA Vera CPU ,以及用於生成階段處理的Rubin GPU協同工作,共同形成了麵對長上下文場景的完整的高性能解耦式服務方案。

CPX的推出,標誌著解耦式推理基礎設施的最新進化,也樹立了推理經濟的新標杆。

在規模化場景下,NVIDIA Vera Rubin NVL144 CPX平台,可帶來30–50x的投資回報(ROI)。

這意味著1億美元的資本性支出(CAPEX),最高可轉化為50億美元的收入。

百萬Token怪獸

重新定義下一代AI應用

Vera Rubin NVL144 CPX平台,重新定義了企業構建下一代生成式AI應用的可能性。

NVIDIA Vera Rubin NVL144 CPX機架與托盤,配備Rubin上下文GPU(Rubin CPX)、Rubin GPU與 Vera CPU

Rubin CPX與NVIDIA Vera CPU、Rubin GPU,共同集成在全新的NVIDIA Vera Rubin NVL144 CPX平台內。

NVIDIA Vera Rubin NVL144 CPX平台,采用最新GPU架構,具備極高算力與能效比,可以基於MGX架構實現機架級部署。

1.算力躍升

NVIDIA MGX機架式係統,單機架集成了144塊Rubin CPX GPU、144 塊Rubin GPU與36顆Vera CPU,可以提供8 EFLOPS的NVFP4計算力,並在單機架內配備100TB高速內存與1.7 PB/s的內存帶寬。

2.長序列的高效處理優化

Rubin CPX針對長序列的高效處理進行了優化,是軟件應用開發與高清(HD)視頻生成等高價值推理用例的關鍵。

3.顯存升級

單個Rubin CPX GPU可以提供高達30 petaflops的NVFP4計算能力,它配備128GB的高性價比GDDR7顯存,以加速最苛刻的上下文類工作負載。

4.注意力機製加速

相比NVIDIA GB300 NVL72係統,Rubin CPX帶來了3倍的注意力機製處理能力,顯著提高模型處理更長上下文序列的能力且不降速。

5.多種形態配置

Rubin CPX提供多種形態配置,包括 Vera Rubin NVL144 CPX,並可與NVIDIA Quantum-X800 InfiniBand橫向擴展計算網絡。

也可以搭配采用NVIDIA Spectrum-XGS以太網技術與NVIDIA ConnectX®-9 SuperNICs™的NVIDIA Spectrum-X™以太網網絡平台結合使用,以實現大規模部署。

Rubin CPX

擁抱NVIDIA全棧AI生態

在生態上,Rubin CPX將得到完整的NVIDIA AI堆棧支持,包括:

軟件平台:NVIDIA AI Enterprise,包含NVIDIA NIM™微服務以及可在NVIDIA加速的雲、數據中心和工作站上部署的AI框架、庫與工具。

編排與模型:NVIDIA Dynamo平台負責高效擴展AI推理,同時處理器將能夠運行NVIDIA Nemotron™多模態模型家族中的最新模型。

開發者生態:基於數十年的創新,Rubin平台擴展了NVIDIA龐大的開發者生態,包括NVIDIA CUDA-X™庫、超過600萬開發者的社區以及近6,000個CUDA應用。

NVIDIA Rubin CPX預計將於2026年底可用。

它的推出將為全球開發者與創作者解鎖更強大的能力,重新定義企業構建下一代生成式AI應用的可能性。

參考資料:

http://developer.nvidia.com/blog/nvidia-rubin-cpx-accelerates-inference-performance-and-efficiency-for-1m-token-context-workloads/%20

http://nvidianews.nvidia.com/news/nvidia-unveils-rubin-cpx-a-new-class-of-gpu-designed-for-massive-context-inference?ncid=so-twit-653111

責任編輯:金龜換酒網

媒體矩陣


  • 客戶端

  • 微信號

  • 微博號

  • 抖音號

客戶端

億萬職工的網上家園

馬上體驗

關於国产AV蜜桃网站|版權聲明| 違法和不良信息舉報電話:010-84151598 | 網絡敲詐和有償刪帖舉報電話:010-84151598
Copyright © 2008-2024 by {當前域名}. all rights reserved

掃碼關注

金龜換酒網微信


金龜換酒網微博


金龜換酒網抖音


工人日報
客戶端
×
分享到微信朋友圈×
打開微信,點擊底部的“發現”,
使用“掃一掃”即可將網頁分享至朋友圈。
網站地圖