- Nvidia 宣布新一代 AI 芯片,Vera Rubin 芯片預計 2026 年交付
- Blackwell Ultra 芯片今年下半年上市
- 發布新的個人電腦芯片,令其可以運行大型AI模型,例如Llama 或 DeepSeek
Nvidia(美:NVDA;英偉達)在年度 GTC 會議上發布新芯片,以助建構及部署artificial intelligence(AI)模型,行政總裁黃仁勳表示,Blackwell Ultra芯片系列將於下半年付運,而下一代芯片Vera Rubin將於2026年交付。
由於發布會技術含量高,未有太多訂單消息,英偉達股價挫3.4%,收報115.43美元,成交348.22億美元,為成交最活躍美股。
Feynman芯片將於2028年上市
自AI狂潮以來,英偉達新的芯片架構由兩年一代,加速至每年一代。在Rubin芯片之後的新一代芯片,將以物理學家Richard Feynman命名,延續其以科學家名字命名芯片系列的傳統,Feynman芯片將於2028年上市。
英偉達發布會預計將有 25,000 名與會者和數百家公司討論如何將該公司的硬體用於人工智能,包括 Waymo、微軟和福特,其中通用汽車亦宣布新一代汽車使用英偉達的服務。
AI PC芯片 可以運行大型AI模型
英偉達同時發布新的電腦芯片,包括兩款用於AI PC的DGX Spark及DGX Station,令其可以配置大型AI模型,例如Llama 或 DeepSeek。
同時宣布更新芯片聯網部件,令其可以將數百或數千個 GPU 連接在一起,使它們作為一個整體工作,同時還發布了一款名為 Dynamo 的軟體包,幫助用戶充分利用他們的芯片。
英偉達預期Vera Rubin芯片將於2026年下半年交付,系統有兩個組件,分別為中央處理器(CPU)Vera以及圖像處理器(GPU)Rubin,名字來自天文學家Vera Rubin。Vera是英偉達首款客製化 CPU 設計,基於 Olympus 的核心設計。
英偉達指,以前當需要 CPU 時,英偉達會使用Arm 的現成設計,這些客制化的設計來自高通及蘋果,因為已更度身定制並實現更好的性能。而英偉達使用Vera CPU,比去年Grace Blackwell 芯片快兩倍速度。
Rubin推理管理 50 petaflops 為Blackwell兩倍
與 Vera 搭配使用時,Rubin 可以在進行推理時管理 50 petaflops,是該公司當前 Blackwell 芯片 20 petaflops 的兩倍多。Rubin 還可以支援高達 288 GB 的快速內存,這是 AI 開發人員關注的核心規格之一。
英偉達也對 GPU 進行更改, 英偉達表示,Rubin 其實有兩塊 GPU。目前市場上的 Blackwell GPU 實際上是兩個獨立的芯片組裝在一起,並作為一個芯片運作。從Rubin開始,當兩個或多個芯片組合成一個芯片時,它會稱為各自獨立 GPU。2027 年下半年,英偉達計劃發布一款「Rubin Next」芯片,將四個芯片組合成一個,使 Rubin 的速度提高一倍,並將其稱為四個 GPU。英偉達表示,這款產品將安裝在名為 Vera Rubin NVL144 的機架上。
至於Blackwell Ultra,每秒將可產生更多tokens(代幣),令芯片可產生更多內容。雲端供應商可以使用 Blackwell Ultra去提供進階的AI服務,是2023年推出Hopper的50倍。
四大雲端運算公司買入Blackwell 為Hopper3倍
Blackwell Ultra 將推出與 Arm CPU 配對的版本GB300,以及僅備 GPU 的版本B300,並將推出在單一伺服器中配備八個 GPU的版本以及配備 72 個 Blackwell 芯片的機架版本。
英偉達表示,四大雲端運算公司部署的 Blackwell 芯片數量是 Hopper 芯片的三倍。
國產AI語言大模型DeepSeek於1月發布後,英偉達指,將使用該模型對其幾款新產品進行基準測試。Blackwell Ultra將更適合推理模型。