Vera Rubin平臺(tái)正式亮相,七顆芯片全部投產(chǎn);
收購(gòu)Groq,其產(chǎn)品首次以“Groq 3 LPX”的身份嵌入英偉達(dá)的推理體系;
自研CPU Vera問世,專為agent而設(shè)計(jì);
發(fā)布DLSS 5,把神經(jīng)渲染帶進(jìn)游戲畫面;
基于爆火的OpenClaw,推出了英偉達(dá)自家的NemoClaw;
拉來Mistral、Perplexity、Cursor等一眾AI公司,組建Nemotron開源模型聯(lián)盟;
自動(dòng)駕駛方面,比亞迪、吉利、日產(chǎn)、五十鈴接入英偉達(dá)的DRIVE Hyperion平臺(tái),Uber宣布2028年前在28個(gè)城市部署英偉達(dá)全棧自動(dòng)駕駛車隊(duì);
機(jī)器人基礎(chǔ)模型GR00T N2亮相;
甚至還有太空計(jì)劃,英偉達(dá)也要把算力送上軌道。
但黃仁勛真正想傳達(dá)的信息,比任何一款產(chǎn)品都大。
他給出了一個(gè)數(shù)字:從2025年到2027年,AI芯片的營(yíng)收將要超過1萬(wàn)億美元。
黃仁勛說,在AI時(shí)代,token是新的貨幣,AI工廠是生產(chǎn)它們的基礎(chǔ)設(shè)施。
接下來,黃仁勛先講訓(xùn)練,再講推理,然后是智能體、物理 AI、機(jī)器人、自動(dòng)駕駛,層層遞進(jìn)。
每一層都對(duì)應(yīng)更大的基礎(chǔ)設(shè)施需求,而如今的英偉達(dá),每一層都有產(chǎn)品可以賣。
這場(chǎng)keynote看下來不像是一份產(chǎn)品報(bào)告,更像一張帝國(guó)版圖。
Vera Rubin是這場(chǎng)發(fā)布會(huì)的核心硬件。它由七顆芯片組成:Vera CPU、Rubin GPU、NVLink 6交換芯片、ConnectX-9 SuperNIC、BlueField-4 DPU、Spectrum-6以太網(wǎng)交換芯片,以及新整合的Groq 3 LPU。
這七顆芯片全部投產(chǎn),設(shè)計(jì)目標(biāo)是組成一臺(tái)協(xié)同工作的超級(jí)計(jì)算機(jī),從大規(guī)模預(yù)訓(xùn)練、后訓(xùn)練、測(cè)試時(shí)推理擴(kuò)展,到實(shí)時(shí)的agent推理,這一臺(tái)機(jī)器就可以覆蓋AI的所有流程。
![]()
核心產(chǎn)品是Vera Rubin NVL72機(jī)架,集成72顆Rubin GPU和36顆Vera CPU,通過NVLink 6互聯(lián)。
黃仁勛稱,相比上一代Blackwell平臺(tái),NVL72訓(xùn)練大型混合專家模型所需的GPU數(shù)量減少到四分之一,推理吞吐量每瓦提升10倍,每token成本降至十分之一。
黃仁勛說,agent的拐點(diǎn)已經(jīng)到來,Vera Rubin正在開啟歷史上最大規(guī)模的基礎(chǔ)設(shè)施建設(shè)。
同時(shí)黃仁勛還預(yù)告了Vera Rubin之后的下一代架構(gòu)Kyber,采用垂直插入的計(jì)算托盤設(shè)計(jì)以提升密度和降低延遲,將搭載在2027年出貨的Vera Rubin Ultra上。
訓(xùn)練是英偉達(dá)發(fā)家之本,但推理才是接下來真正的戰(zhàn)場(chǎng)。
因?yàn)橛?xùn)練只是一次性的重活,推理才是永不停歇的日常。
每一次你向AI提問、每一次你讓AI幫你寫代碼,背后都是推理在運(yùn)轉(zhuǎn)。
黃仁勛提出的方案是把推理拆成兩個(gè)階段,分別用不同的芯片來處理。
大語(yǔ)言模型的推理分為兩步:prefill(預(yù)填充)和decode(解碼)。prefill階段處理你輸入的提示詞,屬于計(jì)算密集型任務(wù),GPU擅長(zhǎng)這個(gè);decode階段則是逐個(gè)生成回答的token,屬于帶寬密集型任務(wù),需要極高的內(nèi)存讀取速度。
或者我們換一種方式來理解黃仁勛的話,prefill是“讀題”,decode是“寫答案”。讀題可以一目十行并行處理,寫答案只能一個(gè)字一個(gè)字往外蹦。
Groq 3 LPU就是為decode階段而生的。
![]()
LPU全稱Language Processing Unit(語(yǔ)言處理單元),由Groq公司開發(fā)。
這家公司由前谷歌TPU團(tuán)隊(duì)成員創(chuàng)立,英偉達(dá)在2025年底以200億美元收購(gòu)了其核心資產(chǎn)。
每顆Groq 3 LPU內(nèi)置了500MB的SRAM(靜態(tài)隨機(jī)存取存儲(chǔ)器),帶寬達(dá)到150TB/s,是Rubin GPU中HBM帶寬(22TB/s)的近7倍。
SRAM可以理解為芯片內(nèi)部的“超高速緩存”,容量小但速度極快,特別適合decode階段對(duì)帶寬的極端需求。
英偉達(dá)將256顆Groq 3 LPU裝進(jìn)一個(gè)LPX機(jī)架,與Vera Rubin NVL72機(jī)架并排部署。Rubin GPU負(fù)責(zé)prefill的重計(jì)算,Groq LPU負(fù)責(zé)decode的高帶寬輸出。
黃仁勛說,這種組合在萬(wàn)億參數(shù)模型上能實(shí)現(xiàn)每兆瓦推理吞吐量提升35倍。
黃仁勛在臺(tái)上直接點(diǎn)名了Claude Code和OpenClaw,他說Claude Code和OpenClaw引起了agent的拐點(diǎn)。
黃仁勛夸贊OpenClaw,稱OpenClaw向所有人打開了AI的下一個(gè)前沿,成為歷史上增長(zhǎng)最快的開源項(xiàng)目。Mac和Windows是個(gè)人電腦的操作系統(tǒng),OpenClaw是個(gè)人AI的操作系統(tǒng)。這是整個(gè)行業(yè)一直在等待的時(shí)刻。
英偉達(dá)為OpenClaw推出了NemoClaw。
NemoClaw是通過NVIDIA Agent Toolkit優(yōu)化過后的OpenClaw,一條命令即可完成安裝。它的核心組件是OpenShell,這是一個(gè)提供開源模型和隔離沙箱的環(huán)境,為agent加上基于策略的安全、網(wǎng)絡(luò)和隱私護(hù)欄。
黃仁勛說,OpenShell為OpenClaw提供了下面缺失的基礎(chǔ)設(shè)施層,讓agent在獲得執(zhí)行權(quán)限的同時(shí)受到安全約束。
NemoClaw的模型調(diào)度采用混合架構(gòu):本地運(yùn)行Nemotron等開源模型處理隱私敏感任務(wù),通過隱私路由器(privacy router)調(diào)用云端前沿模型處理更復(fù)雜的請(qǐng)求。
NemoClaw可以運(yùn)行在GeForce RTX的電腦和筆記本、RTX PRO工作站,以及DGX Station和DGX Spark AI超級(jí)計(jì)算機(jī)上,提供7×24小時(shí)本地計(jì)算支持。
英偉達(dá)也要在開源模型層上搞點(diǎn)動(dòng)作。
Nemotron聯(lián)盟是一個(gè)全新的合作機(jī)制,首批成員包括Black Forest Labs、Cursor、LangChain、Mistral AI、Perplexity、Reflection AI、Sarvam和Thinking Machines Lab(由前 OpenAI CTO Mira Murati 創(chuàng)立)。
聯(lián)盟的第一個(gè)項(xiàng)目是由Mistral AI和英偉達(dá)聯(lián)合訓(xùn)練一個(gè)基礎(chǔ)模型,其他成員貢獻(xiàn)數(shù)據(jù)、評(píng)估框架和領(lǐng)域?qū)I(yè)知識(shí)。模型將在英偉達(dá)DGX Cloud上訓(xùn)練,開源發(fā)布,并成為即將推出的Nemotron 4模型家族的基礎(chǔ)。
黃仁勛的潛臺(tái)詞就是,英偉達(dá)希望開源模型生態(tài)繁榮,因?yàn)殚_源模型的用戶最終需要英偉達(dá)的硬件來訓(xùn)練和部署。
一個(gè)由多家AI公司共同參與的開源模型聯(lián)盟,既能對(duì)抗閉源巨頭的壟斷趨勢(shì),也能確保英偉達(dá)的基礎(chǔ)設(shè)施在開源生態(tài)中保持核心地位。
自動(dòng)駕駛是英偉達(dá)近幾年的重點(diǎn)之一。
比亞迪、吉利、日產(chǎn)、五十鈴宣布采用英偉達(dá)DRIVE Hyperion平臺(tái)開發(fā)L4級(jí)自動(dòng)駕駛車輛。
Uber宣布與英偉達(dá)擴(kuò)大合作,計(jì)劃到2028年在28個(gè)城市、四個(gè)大陸部署全棧英偉達(dá)自動(dòng)駕駛軟件驅(qū)動(dòng)的自動(dòng)駕駛車隊(duì),首批城市是洛杉磯和舊金山灣區(qū),2027年上半年啟動(dòng)。
Bolt、Grab、Lyft 也在接入 DRIVE Hyperion。
L4級(jí)自動(dòng)駕駛意味著車輛在特定條件下可以完全自主駕駛,不需要人類隨時(shí)準(zhǔn)備接管。
目前大多數(shù)量產(chǎn)車上的L2級(jí)輔助駕駛?cè)匀灰篑{駛員時(shí)刻保持注意力,AI只是“輔助”;L4則是AI真正在開車,人類可以不管。
黃仁勛還借此機(jī)會(huì)發(fā)布了Alpamayo 1.5,這是一個(gè)可交互、可引導(dǎo)的自動(dòng)駕駛推理模型,能接受視頻、自車運(yùn)動(dòng)歷史、導(dǎo)航指引和自然語(yǔ)言提示作為輸入,輸出帶有推理鏈的駕駛軌跡。
開發(fā)者可以通過文本提示直接調(diào)整車輛行為。
英偉達(dá)推出了DSX Air,一個(gè)用于在軟件中模擬AI工廠的SaaS平臺(tái)。
黃仁勛前幾年提出過一個(gè)叫“數(shù)字孿生”(Digital Twin)的概念,是指在虛擬環(huán)境中創(chuàng)建一個(gè)與真實(shí)物理系統(tǒng)完全對(duì)應(yīng)的數(shù)字副本。
工程師可以在這個(gè)虛擬副本上進(jìn)行測(cè)試、優(yōu)化和故障排查,而不需要碰真實(shí)的硬件。
就像你搬新家之前,先在3D軟件里把家具擺一遍,看看哪里不合適。
只不過這里“搬”的是一整座超大規(guī)模AI數(shù)據(jù)中心。
![]()
DSX Air允許客戶在硬件到貨之前,就在模擬環(huán)境中搭建完整的 AI 工廠。
計(jì)算、網(wǎng)絡(luò)、存儲(chǔ)、編排、安全,全部按照實(shí)際部署方案配置。
CoreWeave已經(jīng)在使用DSX Air來模擬和驗(yàn)證其AI工廠環(huán)境。
黃仁勛稱,這種方式可以將“從部署到產(chǎn)出第一個(gè)token”的時(shí)間從數(shù)周甚至數(shù)月縮短到幾天甚至幾小時(shí)。
配合DSX Air的是Vera Rubin DSX AI工廠參考設(shè)計(jì)和Omniverse DSX藍(lán)圖。
前者是一份關(guān)于如何設(shè)計(jì)、建造和運(yùn)營(yíng) AI 工廠基礎(chǔ)設(shè)施的完整指南,后者則提供物理精確的數(shù)字孿生能力,用于大規(guī)模 AI 工廠的設(shè)計(jì)和仿真。
Cadence、達(dá)索系統(tǒng)、西門子、施耐德電氣等工業(yè)軟件巨頭都在接入這套體系。
黃仁勛還發(fā)布了DSX Max-Q動(dòng)態(tài)功率分配技術(shù),稱可在固定電力的數(shù)據(jù)中心內(nèi)多部署30%的AI基礎(chǔ)設(shè)施。
DSX Flex軟件則讓AI工廠成為電網(wǎng)靈活資產(chǎn),黃仁勛說可以釋放100吉瓦的閑置電網(wǎng)容量。
BlueField-4 STX是英偉達(dá)為agent設(shè)計(jì)的新存儲(chǔ)架構(gòu)。
傳統(tǒng)數(shù)據(jù)中心的存儲(chǔ)系統(tǒng)提供大容量通用存儲(chǔ),但缺乏agent所需的實(shí)時(shí)響應(yīng)能力。
agent在實(shí)際工作中,需要跨多個(gè)步驟、工具和會(huì)話保持上下文記憶,傳統(tǒng)存儲(chǔ)的延遲會(huì)拖慢推理速度、降低GPU利用率。
STX架構(gòu)的首個(gè)落地產(chǎn)品是CMX上下文記憶存儲(chǔ)平臺(tái),它在GPU內(nèi)存之外擴(kuò)展了一個(gè)高性能上下文層,用于可擴(kuò)展的推理和智能體系統(tǒng)。
黃仁勛稱,與傳統(tǒng)存儲(chǔ)相比,CMX可提供5倍的每秒token吞吐量、4倍的能效提升和2倍的數(shù)據(jù)攝取速度。
CoreWeave、Crusoe、Lambda、Mistral AI、Nebius、Oracle等計(jì)劃采用STX用于上下文記憶存儲(chǔ)。Dell、HPE、IBM、NetApp、VAST Data等存儲(chǔ)廠商正在基于STX參考設(shè)計(jì)構(gòu)建下一代AI存儲(chǔ)基礎(chǔ)設(shè)施。
游戲才是英偉達(dá)的老本行。
黃仁勛在演講中提到,DLSS 5是自2018年推出實(shí)時(shí)光線追蹤以來最重大的圖形突破。
DLSS全稱Deep Learning Super Sampling(深度學(xué)習(xí)超級(jí)采樣),是英偉達(dá)用AI提升游戲畫面質(zhì)量和性能的技術(shù)。
此前的版本主要通過AI放大分辨率和生成中間幀來提升幀率。DLSS 5引入了一個(gè)實(shí)時(shí)神經(jīng)渲染模型,能夠?yàn)橛螒虍嬅孀⑷胝掌?jí)真實(shí)的光照和材質(zhì)效果。
![]()
簡(jiǎn)單來說,以前的DLSS是“讓畫面更流暢”,DLSS 5是“讓畫面更真實(shí)”。
它接收游戲每一幀的顏色和運(yùn)動(dòng)向量作為輸入,用AI模型理解場(chǎng)景中的角色、頭發(fā)、布料、半透明皮膚等復(fù)雜元素,以及正面光、逆光、陰天等環(huán)境光照條件,然后生成視覺上精確的增強(qiáng)圖像。
Bethesda的《星空》《上古卷軸》、CAPCOM的《生化危機(jī)》、育碧的《刺客信條:影)、騰訊、網(wǎng)易等廠商已確認(rèn)支持。
DLSS 5將于今年秋季推出。
最后,英偉達(dá)也宣布進(jìn)軍太空計(jì)算。
黃仁勛說,太空計(jì)算是最后的邊疆,現(xiàn)如今已經(jīng)到來。
“隨著英偉達(dá)部署衛(wèi)星星座、向更深的太空探索,智能必須存在于數(shù)據(jù)產(chǎn)生的任何地方。太空與地面系統(tǒng)之間的AI處理實(shí)現(xiàn)了實(shí)時(shí)感知、決策和自主運(yùn)行,將軌道數(shù)據(jù)中心變成發(fā)現(xiàn)的工具,將航天器變成自主導(dǎo)航的系統(tǒng)。與我們的合作伙伴一起,我們正在將英偉達(dá)延伸到地球之外——大膽地將智能帶到它從未到達(dá)的地方。”
于是黃仁勛拿出了Space-1 Vera Rubin Module,這是一個(gè)面向軌道數(shù)據(jù)中心的計(jì)算模塊。
采用緊密集成的CPU-GPU架構(gòu)和高帶寬互聯(lián),專為尺寸、重量和功耗(SWaP)受限的太空環(huán)境設(shè)計(jì)。
黃仁勛稱,相比H100,Space-1在太空推理場(chǎng)景下提供25倍的AI算力提升,能夠在軌道上直接運(yùn)行大語(yǔ)言模型和高級(jí)基礎(chǔ)模型,處理來自太空儀器的海量實(shí)時(shí)數(shù)據(jù)流。
配合Space-1的還有兩款已經(jīng)可用的平臺(tái):IGX Thor和Jetson Orin。
IGX Thor提供工業(yè)級(jí)耐久性和功能安全,適合任務(wù)關(guān)鍵型邊緣環(huán)境。
Jetson Orin則是超緊湊、高能效的AI推理模塊,已經(jīng)部署在衛(wèi)星上用于視覺、導(dǎo)航和傳感器數(shù)據(jù)的實(shí)時(shí)處理。
在地面端,RTX PRO 6000 Blackwell Server Edition GPU用于地理空間情報(bào)的大規(guī)模處理,英偉達(dá)稱其分析海量衛(wèi)星圖像檔案的速度是傳統(tǒng)CPU系統(tǒng)的100倍。
快報(bào)
根據(jù)《網(wǎng)絡(luò)安全法》實(shí)名制要求,請(qǐng)綁定手機(jī)號(hào)后發(fā)表評(píng)論