2026 年全球消費電子展(CES)正式登場,輝達(NVIDIA)執行長黃仁勳(Jensen Huang)身穿招牌皮衣現身主題演講,宣告 AI 產業正式邁入「實體 AI」與「推理時代」他在演講中揭露新一代 Vera Rubin 平台已全面投入生產,預計今年下半年正式上市,並強調這款晶片將成為業界首款整合 HBM4 高頻寬記憶體的處理器,黃仁勳指出,隨著開源推理模型崛起,AI 擴散速度前所未見,產業關鍵已從「模型能不能做」轉向「能不能長時間、低成本地運行」而 Rubin 平台正是為此量身打造的解決方案。

延伸閱讀:黃仁勳預言未來 90% 人類知識將由 AI 創造!但 AI 成為地球主宰者機率極低

黃仁勳 CES 演講會曝光輝達 Rubin 晶片全面量產!

Vera Rubin 平台採用極致協同設計,整合 6 款晶片,包含 GPU、CPU、NVLink 交換器、乙太網路交換器、智慧網卡與 DPU,根據官方數據,相較前一代 Blackwell 架構,Rubin 在推理方面的浮點效能提高 5 倍,訓練效能提高 3.5 倍,記憶體頻寬更提升 2.8 倍,最引人注目的是,Rubin GPU 搭載的 HBM4 記憶體頻寬達每秒 22TB,遠超 Blackwell 的 8TB/s,使單一 GPU 能同時處理更多推理任務並支援更長的上下文記憶,每個 Rubin GPU 整合 8 個 HBM4 堆棧,總容量達 288GB,配合 NVLink 6 互聯技術實現 3.6TB/s 的 GPU 間通訊頻寬,旗艦級伺服器 NVL72 搭載 72 個 Rubin GPU 與 36 個全新 Vera CPU,總記憶體頻寬達 1.6PB/s,較 Blackwell 平台提升近兩倍,實際應用中,這種提升使 AI 推理成本最高降低 10 倍,訓練混合專家模型的 GPU 需求減少至四分之一。

載入中...

除了硬體升級,輝達同步推出由 BlueField-4 驅動的推理上下文記憶體儲存平台,在 GPU 記憶體與傳統儲存之間建立高速「第三層記憶體」可在特定場景下提升 token 處理量最高達 5 倍,黃仁勳強調,這套系統以「推理時擴展」為核心概念,AI 能力不再僅依賴訓練期擴模,而是透過推理階段投入更多算力與時間,換取顯著品質提升,此外輝達也發表 Cosmos Reason 2 模型,這款視覺語言模型旨在賦予機器人「實體推理」能力,讓 AI 代理能理解物理世界、規劃行動並處理複雜任務,在自動駕駛領域,輝達揭曉 Alpamayo 平台,號稱全球首款具備「思考與推理能力」的自動駕駛 AI 大腦,首款導入車款將由賓士 CLA 打頭陣,預計第一季在美國市場亮相,產業分析指出,HBM4 的部署時機恰逢 AI 運算需求爆發期,輝達提前量產 Rubin 系列反映市場對高效能記憶體解決方案的迫切需求,微軟 Azure 和 CoreWeave 等雲端服務商將於今年下半年首批提供基於 Rubin 的雲端運算執行個體,台廠方面,廣達、鴻海等供應鏈伙伴悄然入列自駕車 Tier 1 名單,顯示輝達正透過將運算、網路與儲存緊密綁定,試圖解決 AI 代理在處理複雜任務時可能遇到的效能瓶頸,並將 AI 從雲端推向真實世界的實體場域。


本站圖片部分取自於網路,如有版權使用疑慮煩請告知。

標籤關聯文章 : #黃仁勳