AI芯片市場正迎來結構性調整,GPU長期主導大模型訓練環(huán)節(jié),但模型訓練結束后的推理及衍生任務,對芯片類型的需求正逐漸分化。Meta作為全球AI研發(fā)的核心參與者,其云服務采購策略一直備受關注——去年八月,Meta與Google Cloud簽署六年100億美元的合作協議,一度讓它與AWS的傳統(tǒng)合作關系出現松動;近日AWS宣布,Meta已簽署協議,將使用數百萬顆自研Graviton芯片支撐日益增長的AI計算需求。
AWS Graviton是基于ARM架構的中央處理器(CPU),和訓練用GPU不同,它的最新版本被明確設計用于處理AI相關計算任務。此次Meta采購的數百萬顆Graviton芯片,將主要處理模型訓練后的工作負載,包括實時推理、代碼生成、智能搜索及多步驟代理任務協調等,這些任務雖計算密集,但對單線程性能和能效比的要求更適配CPU架構。
AI工作負載分為訓練與推理兩大階段:訓練階段需要大規(guī)模并行計算,GPU憑借高吞吐量成為首選;推理階段則涉及大量實時低延遲請求,CPU在指令集靈活性、能效及成本控制方面更具優(yōu)勢。AWS Graviton通過ARM架構的能效優(yōu)化及AI推理指令集增強,實現了更高的每瓦性能比,這正是Meta選擇它的核心技術原因。
此次合作鞏固了AWS在Meta供應鏈中的地位,標志著AI芯片市場的分工正在細化——CPU不再只承擔通用計算任務,而是成為AI生態(tài)推理層的核心組件。對Meta而言,多元化采購能平衡成本與性能,降低對單一云服務商的依賴;對AWS來說,Graviton的大規(guī)模商用驗證能提升自研芯片的競爭力,與GPU供應商形成差異化優(yōu)勢。
從行業(yè)動態(tài)來看,近期CPU廠商與云服務商的合作愈發(fā)緊密:Intel Xeon系列優(yōu)化了AI推理指令集,AMD EPYC則拓展了AI邊緣場景。在競爭對手方面,Google Cloud加速了自研TPU芯片的推理性能升級,推出低延遲的TPU v5e;微軟Azure推進ARM架構自研芯片Project Olympus,計劃2024年量產,以應對AWS Graviton帶來的沖擊。






快報