全球算力需求正隨人工智能大模型的訓(xùn)練與部署呈指數(shù)級(jí)攀升,Meta作為AI研發(fā)領(lǐng)域的核心玩家,其LLaMA系列大模型、生成式AI應(yīng)用等項(xiàng)目需要持續(xù)穩(wěn)定的高性能計(jì)算支持。在此背景下,CoreWeave今日宣布與Meta達(dá)成一項(xiàng)擴(kuò)展的長(zhǎng)期協(xié)議,為行業(yè)算力供給格局帶來(lái)重要影響。
根據(jù)協(xié)議,CoreWeave將為Meta提供價(jià)值約210億美元的AI云容量,合作將持續(xù)至2032年12月,雙方在現(xiàn)有合作基礎(chǔ)上進(jìn)一步深化,以強(qiáng)化對(duì)Meta AI開(kāi)發(fā)與部署的支撐。專(zhuān)用算力容量將部署于多個(gè)地理地點(diǎn),并包含NVIDIA Vera Rubin平臺(tái)的初步部署,這種分布式架構(gòu)旨在優(yōu)化Meta人工智能運(yùn)營(yíng)的性能、韌性與可擴(kuò)展性。
從技術(shù)層面分析,分布式部署模式能顯著降低數(shù)據(jù)傳輸延遲,提升系統(tǒng)容錯(cuò)能力,確保大規(guī)模AI工作負(fù)載在多地點(diǎn)高效運(yùn)行;而NVIDIA Vera Rubin平臺(tái)作為超大規(guī)模AI任務(wù)的專(zhuān)屬解決方案,其集群化算力配置能夠滿(mǎn)足Meta復(fù)雜模型訓(xùn)練的高并發(fā)、高吞吐量需求。這一協(xié)議的落地,不僅為Meta解決了當(dāng)前及未來(lái)十年的核心算力供給難題,也體現(xiàn)了CoreWeave在AI基礎(chǔ)設(shè)施領(lǐng)域的技術(shù)優(yōu)勢(shì)與規(guī)模能力。
這一協(xié)議的達(dá)成,折射出行業(yè)對(duì)高性能基礎(chǔ)設(shè)施的需求正加速增長(zhǎng)——這類(lèi)設(shè)施需能支撐日益復(fù)雜且規(guī)模龐大的AI工作負(fù)載。對(duì)Meta而言,穩(wěn)定的算力供給將幫助其在大模型迭代、生成式AI應(yīng)用落地等領(lǐng)域持續(xù)保持競(jìng)爭(zhēng)力;對(duì)CoreWeave而言,與Meta的長(zhǎng)期合作將鞏固其在AI云服務(wù)市場(chǎng)的地位,推動(dòng)業(yè)務(wù)規(guī)模進(jìn)一步擴(kuò)張。
近期AI基礎(chǔ)設(shè)施領(lǐng)域的合作動(dòng)態(tài)頗為活躍:微軟宣布將擴(kuò)大對(duì)OpenAI的算力投入,計(jì)劃未來(lái)三年新增超100億美元的AI云資源,以支持OpenAI下一代大模型的訓(xùn)練;Google Cloud則與Anthropic深化合作,提供定制化TPU集群服務(wù),助力Anthropic的Claude系列模型迭代。
在競(jìng)爭(zhēng)對(duì)手方面,亞馬遜AWS推出了大模型訓(xùn)練專(zhuān)用云實(shí)例,采用NVIDIA H100 GPU集群,并具備彈性擴(kuò)展能力;阿里云則發(fā)布新一代AI計(jì)算集群“飛天智算平臺(tái)”,單集群算力可達(dá)每秒百億億次浮點(diǎn)運(yùn)算,意在爭(zhēng)奪全球AI基礎(chǔ)設(shè)施市場(chǎng)份額。這些動(dòng)態(tài)表明,AI基礎(chǔ)設(shè)施已成為科技巨頭競(jìng)爭(zhēng)的核心賽道之一。






快報(bào)