文 | 云石亂筆
2026年3月,全球半導(dǎo)體產(chǎn)業(yè)正處于一個(gè)關(guān)鍵轉(zhuǎn)折點(diǎn)。AI芯片驅(qū)動(dòng)行業(yè)收入逼近萬億美元大關(guān),但繁榮的表象之下,競爭格局正在經(jīng)歷深刻的重塑。從Nvidia的GTC 2026大會到Tesla宣布自建晶圓廠,從Google TPU打入外部市場到AMD發(fā)起正面挑戰(zhàn),過去一年發(fā)生的一切,正在重新定義AI算力的未來版圖。
萬億美元的賽道:數(shù)字背后的結(jié)構(gòu)性變局
全球半導(dǎo)體行業(yè)正以驚人的速度膨脹。據(jù)世界半導(dǎo)體貿(mào)易統(tǒng)計(jì)組織(WSTS)數(shù)據(jù),2026年全球芯片銷售額預(yù)計(jì)將達(dá)到9750億美元的歷史峰值,同比增長約26%。而這一增長的核心引擎,就是AI芯片。
德勤在其2026年半導(dǎo)體行業(yè)展望報(bào)告中估算,生成式AI芯片的收入將在2026年接近5000億美元,約占全球芯片銷售額的一半。AMD CEO蘇姿豐(Lisa Su)更是將AI數(shù)據(jù)中心加速器芯片的總可尋址市場預(yù)期上調(diào)至2030年1萬億美元。
但數(shù)字的光鮮掩蓋了一個(gè)深刻的結(jié)構(gòu)性矛盾:AI芯片貢獻(xiàn)了約50%的行業(yè)收入,卻僅占芯片總出貨量的不到0.2%。2025年全球共售出約1.05萬億顆芯片,平均售價(jià)僅0.74美元,而AI芯片不過約2000萬顆。這意味著,整個(gè)行業(yè)的繁榮高度集中在極少數(shù)高價(jià)值產(chǎn)品上。
與此同時(shí),非AI領(lǐng)域的市場表現(xiàn)令人擔(dān)憂。由于AI對HBM(高帶寬內(nèi)存)和先進(jìn)制程產(chǎn)能的大量占用,特定DDR5配置的消費(fèi)級內(nèi)存價(jià)格在2025年9月至11月間飆漲約4倍,PC和智能手機(jī)市場預(yù)計(jì)在2026年出現(xiàn)下滑。德勤將這種現(xiàn)象描述為一個(gè)"高風(fēng)險(xiǎn)悖論",行業(yè)把所有雞蛋放進(jìn)了AI這一個(gè)籃子里。
Nvidia:王座之上的焦慮
過去的一年,沒有人比Nvidia更能體現(xiàn)AI芯片的統(tǒng)治力與焦慮感。
2026年3月16日,Nvidia在GTC(GPU Technology Conference)2026大會上發(fā)布了一系列重磅產(chǎn)品。最受矚目的當(dāng)屬Vera Rubin超級芯片架構(gòu),基于臺積電N3B工藝,搭載HBM4內(nèi)存,單顆VR200封裝可提供驚人的35 petaFLOPS FP4算力,配備288GB超高速HBM4(帶寬目標(biāo)22TB/s)。72顆VR200組成的NVL72機(jī)架,將再次刷新AI算力的天花板。
但真正讓行業(yè)意外的是另一個(gè)消息:Nvidia以約200億美元與推理芯片公司Groq達(dá)成技術(shù)授權(quán)協(xié)議,引入Groq創(chuàng)始人Jonathan Ross、總裁Sunny Madra及核心團(tuán)隊(duì),并在GTC上發(fā)布了Groq 3 LPU(語言處理單元)。這不是一次簡單的技術(shù)引進(jìn)。Groq的LPU采用確定性執(zhí)行架構(gòu),內(nèi)置230MB超快SRAM,沒有外部內(nèi)存,卻能以極低延遲運(yùn)行AI推理任務(wù)。Nvidia推出的Groq 3 LPX平臺,由128顆Groq 3 LPU組成的機(jī)架與Vera Rubin NVL72協(xié)同工作,號稱可實(shí)現(xiàn)每兆瓦35倍的吞吐量提升和10倍的收入機(jī)會。不過,當(dāng)前的Groq 3仍基于較早的架構(gòu)演進(jìn),而基于三星4nm工藝的第二代LPU已在研發(fā)中。Nvidia拿到的不只是一顆芯片,更是一條完整的推理芯片技術(shù)路線。
這一布局的戰(zhàn)略意義非常清晰:當(dāng)行業(yè)重心從訓(xùn)練轉(zhuǎn)向推理,Nvidia需要一款專用推理芯片來捍衛(wèi)自己的領(lǐng)地。正如Nvidia超大規(guī)模與高性能計(jì)算副總裁伊恩·巴克(Ian Buck)所言,GPU的內(nèi)存更大,而LPU的內(nèi)存更快,兩者結(jié)合,才能覆蓋從萬億參數(shù)模型到百萬token上下文的全場景推理需求。
Nvidia還發(fā)布了獨(dú)立的Vera CPU機(jī)架,將256顆液冷Vera CPU集成在一個(gè)系統(tǒng)中,專門針對正在興起的AI Agent工作負(fù)載。當(dāng)AI Agent需要瀏覽網(wǎng)頁、提取數(shù)據(jù)、執(zhí)行多步推理時(shí),CPU性能變得至關(guān)重要。這是Nvidia從GPU公司向全棧AI算力平臺進(jìn)化的又一步。
Nvidia的數(shù)據(jù)中心收入在2026財(cái)年達(dá)到1935億美元,較上年的1162億美元大幅增長。但市場份額正在面臨空前的挑戰(zhàn)。
挑戰(zhàn)者聯(lián)盟:從追趕到正面較量
AMD:內(nèi)存為王的賭注
如果說2025年AMD還在奮力追趕,2026年可能是它扳回一局的轉(zhuǎn)折點(diǎn)。
AMD即將推出的MI455X基于全新的CDNA 5架構(gòu),采用12顆2nm和3nm邏輯Chiplet的混合設(shè)計(jì),通過先進(jìn)的3.5D封裝連接,總計(jì)3200億晶體管。最大的賣點(diǎn)是內(nèi)存配置:432GB的下一代HBM4,帶寬接近20TB/s。這在內(nèi)存容量上超過了Nvidia的Vera Rubin(288GB HBM4),至少在Rubin Ultra推出之前(后者將配備1TB HBM)。
但MI455X只不過是拼圖的一半。真正決定AMD這次能否改變格局的,是Helios機(jī)架架構(gòu)。
過去幾年,AMD在AI芯片的單卡性能上并不遜色,MI300X和MI355X都交出了不錯(cuò)的成績單,但市場份額始終難以突破。原因不在芯片本身,而在系統(tǒng)。Nvidia的統(tǒng)治力建立在NVLink、NVSwitch和NVL72整套機(jī)架級互連方案之上,客戶買的不是一顆GPU,而是一套從芯片到機(jī)架、從硬件到軟件的完整生態(tài)。AMD長期缺少的正是這一環(huán)。
Helios是AMD對這一短板的正面回應(yīng)。它不再只是把多顆MI455X裝進(jìn)一個(gè)機(jī)柜,而是提供了一套完整的機(jī)架級系統(tǒng)架構(gòu),包括高速互連、統(tǒng)一的內(nèi)存尋址和針對大規(guī)模AI工作負(fù)載的Scale-up/Scale-out方案。Semi Analysis的深度分析指出,Helios的意義在于AMD第一次在系統(tǒng)層面向Nvidia的NVL72發(fā)起了對等挑戰(zhàn),不只是賣芯片,而是賣方案。
對AMD而言,Helios的成敗可能比MI455X本身更關(guān)鍵。芯片規(guī)格再強(qiáng),如果無法提供客戶從Nvidia生態(tài)遷移過來的完整路徑,就只能停留在紙面上。Helios能否按時(shí)交付、軟件生態(tài)能否跟上、大客戶是否愿意為第二選擇投入資源,這些問題的答案將決定AMD在AI芯片領(lǐng)域究竟是永遠(yuǎn)的"第二名",還是做個(gè)真正的競爭者。
Google Ironwood TPU:十年磨一劍
Google可能是AI芯片領(lǐng)域真正的"老兵",第一代TPU早在2015年就投入使用,比Nvidia的第一款Tensor Core GPU還要早兩年。當(dāng)整個(gè)科技圈還在為區(qū)塊鏈狂熱的時(shí)候,Google已經(jīng)在為AI時(shí)代鋪路。更不用說,開啟大模型時(shí)代的那篇"Attention Is All You Need"論文,本質(zhì)上就是Google的成果。
2025年11月發(fā)布的Ironwood(TPU v7)是Google最新的杰作?;谂_積電N3E工藝,采用雙芯片(dual-chiplet)設(shè)計(jì),配備192GB HBM3E內(nèi)存,專為運(yùn)行Gemini系列模型的推理任務(wù)而設(shè)計(jì)。Ironwood最獨(dú)特的優(yōu)勢在于Google的光學(xué)電路交換技術(shù),利用微型物理鏡面實(shí)現(xiàn)超高效光學(xué)互連,可將最多9216顆TPU連接成一個(gè)超級Pod,這種規(guī)模的單一集群是當(dāng)前任何競爭對手都無法匹配的。
Ironwood真正的戰(zhàn)略意義在于,Google開始將TPU開放給外部客戶。據(jù)報(bào)道,Meta正在就2027年起采購數(shù)十億美元Google AI芯片進(jìn)行談判。Forrester分析師Alvin Nguyen評價(jià)說:"Nvidia無法滿足所有AI需求,Google和AMD等替代方案在云服務(wù)和本地AI基礎(chǔ)設(shè)施方面都是可行的??蛻糁皇窃趯ふ覍?shí)現(xiàn)AI目標(biāo)的途徑,同時(shí)避免供應(yīng)商的鎖定。"
然而,Ironwood有一個(gè)明顯的"缺口":它是一顆專為推理設(shè)計(jì)的芯片。在大模型訓(xùn)練領(lǐng)域,Google目前仍主要依賴上一代Trillium(TPU v6e)和Nvidia GPU的組合。要真正構(gòu)建一個(gè)能與Nvidia端到端抗衡的完整生態(tài),Google需要的不只是一顆推理冠軍,還需要一顆同樣能在訓(xùn)練場景中硬碰硬的下一代芯片。
這正是TPU v8被行業(yè)寄予厚望的原因。雖然Google尚未公開披露v8的具體規(guī)格和時(shí)間表,但從Google過去十年幾乎保持一年一代的TPU迭代節(jié)奏來看(v5e/v5p于2023年、Trillium于2024年、Ironwood于2025年),v8在2026年下半年或2027年初亮相是合理的預(yù)期。
v8的戰(zhàn)略定位幾乎可以確定:補(bǔ)齊訓(xùn)練這塊拼圖。Ironwood已經(jīng)證明了Google在推理芯片上的競爭力,但Meta等外部客戶之所以還在大量采購Nvidia GPU,核心原因正是訓(xùn)練工作負(fù)載。如果v8能在訓(xùn)練性能上與Nvidia的Vera Rubin正面抗衡,Google就將成為唯一一家同時(shí)擁有世界級訓(xùn)練芯片、世界級推理芯片和世界級AI模型(Gemini)的公司,一個(gè)完全垂直整合的AI算力帝國。Amazon的Trainium服務(wù)于云客戶但自身沒有前沿AI模型,Microsoft的Maia推理能力強(qiáng)但訓(xùn)練仍依賴Nvidia,Meta的MTIA只服務(wù)內(nèi)部工作負(fù)載。只有Google具備"TPU + Gemini + Google Cloud"三位一體的條件。
當(dāng)然,這條路上最大的障礙不是硬件本身,而是軟件生態(tài)。Nvidia的CUDA經(jīng)過十余年積累,已成為AI開發(fā)的事實(shí)標(biāo)準(zhǔn),擁有龐大的開發(fā)者社區(qū)和成熟的工具鏈。Google的TPU則依賴JAX/XLA編程模型,雖然在Google內(nèi)部和部分研究機(jī)構(gòu)中廣泛使用,但在更廣泛的企業(yè)市場和開發(fā)者生態(tài)中仍遠(yuǎn)不及CUDA的滲透率。即使v8的硬件規(guī)格全面超越Vera Rubin,如果無法降低客戶從CUDA遷移的門檻,TPU的外部化進(jìn)程仍將受到制約。這也是Google能否從"內(nèi)部利器"轉(zhuǎn)型為"行業(yè)平臺"的關(guān)鍵考驗(yàn)。
十年前,沒有人認(rèn)為Google會成為Nvidia在AI芯片領(lǐng)域的主要挑戰(zhàn)者。但2026年的現(xiàn)實(shí)是:Google擁有最長的AI芯片研發(fā)歷史、最獨(dú)特的光學(xué)互連技術(shù)、最強(qiáng)的AI模型之一,以及一個(gè)剛剛開始接受外部客戶的云芯片平臺。TPU v8如果如期到來,可能標(biāo)志著AI芯片行業(yè)從"Nvidia一家獨(dú)大"向"Nvidia vs Google雙極格局"轉(zhuǎn)變的真正開端。
差異化路徑:另辟蹊徑的挑戰(zhàn)者
高通(Qualcomm):大衛(wèi)挑戰(zhàn)歌利亞
在GPU雙雄和云廠商自研芯片之外,還有一個(gè)不該被忽視的名字:高通。
高通直到最近才完成首次大規(guī)模部署:1024顆AI100芯片組成的集群。問題是,這批硬件已有三年歷史,底層架構(gòu)更是接近六年前的設(shè)計(jì)。千顆規(guī)模在2026年幾乎不值一提。但真正值得關(guān)注的是2025年10月發(fā)布的AI200。這顆ASIC基于臺積電N3E工藝,包含約700億晶體管,配備768GB LPDDR5X內(nèi)存,明確瞄準(zhǔn)推理市場。
高通的策略與眾不同:選擇LPDDR5X而非供應(yīng)緊張的HBM。一年前這看起來是個(gè)聰明的差異化選擇,避開了HBM的產(chǎn)能瓶頸,用大容量低功耗內(nèi)存服務(wù)推理場景。但隨著內(nèi)存價(jià)格全線飆漲,LPDDR5X同樣未能幸免,這一成本優(yōu)勢正在縮水。AI200大概率不會在2026年掀起大的波浪。
不過,高通的路線圖上有一個(gè)更值得期待的節(jié)點(diǎn):下一代AI250將采用全新的存算一體(Compute Near Memory)架構(gòu),據(jù)高通披露,可實(shí)現(xiàn)有效內(nèi)存帶寬10倍的提升,并搭配下一代LPDDR6內(nèi)存。如果Nvidia是歌利亞,高通很可能是那個(gè)手持彈弓的大衛(wèi),暫時(shí)還夠不到頭部戰(zhàn)場,但技術(shù)路線足夠獨(dú)特,值得持續(xù)關(guān)注。
Cerebras WSE-3:整片晶圓的異類
在所有AI芯片中,Cerebras的WSE-3(Wafer Scale Engine 3)可能是最"另類"的存在。顧名思義,它將整片硅晶圓制成一顆芯片,不是Chiplet拼接,而是真正的單片。
WSE-3于2024年發(fā)布,但2026年初剛剛宣布了新的集群部署。它基于臺積電N4P工藝,包含4萬億顆晶體管,內(nèi)置44GB SRAM,理論內(nèi)存帶寬高達(dá)21 PB/s。一切指標(biāo)都是"天文數(shù)字級"的。但問題在于,到了2026年,44GB的片上內(nèi)存對于運(yùn)行大模型來說已經(jīng)捉襟見肘,即便它是速度極快的SRAM。WSE-3仍然在超低延遲推理服務(wù)場景中保持競爭力,但它可能正在成為這一代的"落單者"。行業(yè)期待的是WSE-4能否帶來足夠的內(nèi)存擴(kuò)展來重回主流視野。
科技巨頭的"自研芯片"浪潮
過去一年最引人注目的趨勢之一,是越來越多的科技公司選擇自研AI芯片,從Nvidia的客戶變成Nvidia的潛在競爭者。
Amazon的自研芯片戰(zhàn)略可能是所有超大規(guī)模云廠商中部署規(guī)模最大的。AWS已在其數(shù)據(jù)中心部署了數(shù)十萬顆Trainium 2芯片,而2025年12月發(fā)布的Trainium 3 UltraServer性能較前代提升了4倍以上,能效提高40%。Trainium 3基于臺積電N3P工藝,包含約1250億晶體管,配備144GB HBM3E。
但Trainium 3真正耐人尋味的,不只是技術(shù)規(guī)格,而是它背后的資本游戲。Amazon向Anthropic累計(jì)投資約80億美元。作為回報(bào),Anthropic將Claude模型的訓(xùn)練和運(yùn)行大量遷移到AWS的Trainium芯片上。這不是簡單的客戶關(guān)系。Amazon用真金白銀"買"來了最頂級AI實(shí)驗(yàn)室對自研芯片的驗(yàn)證,而Anthropic獲得了前沿模型研發(fā)所需的海量算力。雙方的利益深度綁定:Amazon需要Anthropic證明Trainium能跑最難的工作負(fù)載,Anthropic需要Amazon的資金和基礎(chǔ)設(shè)施來保持與OpenAI的競爭力。Claude在Trainium上訓(xùn)練成功這件事本身,就是Amazon自研芯片戰(zhàn)略最有力的市場背書。
更值得玩味的是OpenAI的選擇。OpenAI的最大投資方是Microsoft,后者正在用自研的Maia 200芯片打造Azure上的AI推理基礎(chǔ)設(shè)施。但OpenAI同時(shí)宣布將從2026年起使用2GW的AWS Trainium算力,這意味著Microsoft最重要的AI盟友,同時(shí)也在用Amazon的芯片。在AI算力供不應(yīng)求的當(dāng)下,沒有任何一家AI實(shí)驗(yàn)室能承受把所有賭注押在單一供應(yīng)商身上。Anthropic同樣如此。在拿了Amazon的80億美元之后,又計(jì)劃從Google Cloud獲取多達(dá)100萬顆TPU的算力,同時(shí)還在使用Nvidia GPU,在三家供應(yīng)商之間維持著精心計(jì)算的平衡。
業(yè)內(nèi)分析師將這種模式稱為"循環(huán)融資":云廠商投資AI公司,AI公司反過來購買云廠商的算力和芯片,資本和算力在幾家巨頭之間循環(huán)流動(dòng)。這已經(jīng)不是傳統(tǒng)的供應(yīng)商-客戶關(guān)系,而是一種深度耦合的共生結(jié)構(gòu):每家公司既是對方的投資者,又是對方的客戶,還是對方的潛在競爭者。Trainium 3的成功,某種程度上不是靠產(chǎn)品與技術(shù)贏得市場競爭,而是靠資本紐帶鎖定了最關(guān)鍵的客戶。
Microsoft的Maia 200是其第二代自研ASIC,基于臺積電N3P工藝,包含1400億晶體管,配備216GB HBM3。這顆芯片將用于推理,優(yōu)化了FP8和FP4性能,分別可提供超過5和10 petaFLOPS的算力。Microsoft不僅將其用于自家模型,還將用來運(yùn)行OpenAI的相關(guān)模型。
Meta的MTIA(Meta訓(xùn)練與推理加速器)已進(jìn)入第三代迭代,采用了臺積電N3P工藝,預(yù)計(jì)超過1000億晶體管,并首次從前兩代的LPDDR5X升級到HBM內(nèi)存,這一變化本身就說明Meta對自研芯片的性能預(yù)期在大幅提升。MTIA v3不會是爭奪AGI的芯片,但Meta對自己的內(nèi)部工作負(fù)載了如指掌:不只是AI聊天機(jī)器人,更是驅(qū)動(dòng)Facebook、Instagram和Threads推薦算法的核心推理模型。用自研芯片處理這些工作負(fù)載能提供更好的利潤率,同時(shí)釋放外購的Nvidia和AMD GPU用于前沿模型訓(xùn)練。扎克伯格(Mark Zuckerberg)的大手筆采購涵蓋了Nvidia GPU、AMD GPU甚至Google TPU,但長遠(yuǎn)來看,MTIA承擔(dān)的推理份額只會越來越大。
OpenAI在2025年初完成了其首款自研芯片的設(shè)計(jì),由前Google自研芯片項(xiàng)目負(fù)責(zé)人Richard Ho領(lǐng)導(dǎo)的40人團(tuán)隊(duì)操刀,采用臺積電3nm工藝制造,目標(biāo)2026年量產(chǎn)。這顆芯片最初將用于推理任務(wù)??紤]到OpenAI同時(shí)參與了5000億美元的“星門”(Stargate)基礎(chǔ)設(shè)施項(xiàng)目,自研芯片的戰(zhàn)略意圖已昭然若揭。
最大膽的舉動(dòng)來自Tesla。2026年3月19日—就在本文撰寫的前一天—馬斯克(Elon Musk)宣布Tesla的Terafab項(xiàng)目將在7天內(nèi)啟動(dòng)。這是一個(gè)垂直整合的半導(dǎo)體制造工廠,集邏輯處理、內(nèi)存和先進(jìn)封裝于一體。據(jù)Tesla披露的目標(biāo),初期產(chǎn)能為每月10萬片晶圓,年產(chǎn)1000至2000億顆AI和內(nèi)存芯片,預(yù)計(jì)投資約200億美元。Terafab的目的是為Tesla的全自動(dòng)駕駛系統(tǒng)、Robotaxi車隊(duì)、Optimus人形機(jī)器人和Dojo超級計(jì)算機(jī)提供自主可控的AI芯片供應(yīng)。如果這一計(jì)劃付諸實(shí)施,它將是AI時(shí)代最大膽的垂直整合嘗試之一。
從訓(xùn)練到推理:行業(yè)重心的歷史性轉(zhuǎn)移
在所有技術(shù)趨勢中,最深刻的或許是整個(gè)行業(yè)從AI訓(xùn)練向AI推理的重心轉(zhuǎn)移。
Google Ironwood TPU專為推理設(shè)計(jì)。Nvidia引入Groq技術(shù)正是為了獲得專用推理芯片。Microsoft的Maia 200優(yōu)化了推理性能。高通的AI200 ASIC選擇了LPDDR5X而非HBM,瞄準(zhǔn)的也是推理市場。越來越多的跡象表明:訓(xùn)練一個(gè)大模型可能只需要做一次,但推理—每當(dāng)用戶向ChatGPT提出一個(gè)問題、每當(dāng)AI Agent執(zhí)行一個(gè)任務(wù)—需要持續(xù)不斷地消耗算力。
這一轉(zhuǎn)變正在重塑芯片設(shè)計(jì)的優(yōu)先級。推理芯片更強(qiáng)調(diào)能效(每瓦每Token的性能)、低延遲、大內(nèi)存帶寬和確定性執(zhí)行,而這些恰恰是傳統(tǒng)GPU并非最優(yōu)的領(lǐng)域。ASIC(如TPU、Trainium、Groq LPU)和專用推理加速器的崛起,正在蠶食GPU在AI領(lǐng)域的壟斷地位。
德勤的分析也印證了這一點(diǎn):AI數(shù)據(jù)中心工作負(fù)載預(yù)計(jì)在2026年至2030年間每年增長3到4倍。隨著AI Agent、實(shí)時(shí)推理和端側(cè)AI的爆發(fā),推理算力需求的增速將遠(yuǎn)超訓(xùn)練。
暗流涌動(dòng):繁榮背后的風(fēng)險(xiǎn)
在這場AI芯片的盛宴中,幾個(gè)潛在風(fēng)險(xiǎn)值得警惕。
能源瓶頸。高盛估計(jì),到2027年AI數(shù)據(jù)中心將需要額外92GW的電力。用于發(fā)電的燃?xì)廨啓C(jī)訂單已排到2030年以后,數(shù)據(jù)中心審批可能因消費(fèi)者電價(jià)上漲風(fēng)險(xiǎn)而受阻。能源正在取代芯片本身,成為AI擴(kuò)張的最大瓶頸。
內(nèi)存危機(jī)。AI對HBM3、HBM4和DDR7內(nèi)存的需求導(dǎo)致消費(fèi)級內(nèi)存(DDR4、DDR5)嚴(yán)重短缺。據(jù)Counterpoint統(tǒng)計(jì),2025年第四季度內(nèi)存均價(jià)飆漲50%,部分分析師認(rèn)為這種緊缺可能持續(xù)十年。這不僅影響PC和智能手機(jī)市場,也在推高AI系統(tǒng)本身的成本。
投資回報(bào)的不確定性。大多數(shù)數(shù)據(jù)中心建設(shè)方并不指望第一年就收回投資,但如果AI變現(xiàn)的速度和規(guī)模不及預(yù)期,項(xiàng)目可能被取消或推遲,對芯片銷售造成沖擊。德勤提醒,2026年的訂單基本鎖定,但2027和2028年可能出現(xiàn)急劇分化。
地緣政治的持續(xù)擾動(dòng)。出口管制、關(guān)稅、技術(shù)主權(quán)爭奪正在重塑全球半導(dǎo)體供應(yīng)鏈。2025年12月,美國政府批準(zhǔn)Nvidia向部分獲準(zhǔn)的中國客戶出售H200芯片,但條件是25%的芯片銷售份額。各國紛紛加速建設(shè)本土芯片制造能力,但先進(jìn)封裝和測試領(lǐng)域的人才短缺—尤其在美國和歐洲—可能成為持久性的障礙。
展望2026下半年:確定趨勢與開放問題
站在2026年3月的時(shí)間節(jié)點(diǎn)上,有幾個(gè)趨勢已經(jīng)相當(dāng)明確:
第一,Nvidia仍將主導(dǎo),但其份額將繼續(xù)被稀釋。Nvidia控制著AI芯片市場90%以上的份額,但Google TPU的外部化、AMD MI455X的正面競爭、以及各大科技巨頭的自研芯片,正在多個(gè)維度侵蝕這一優(yōu)勢。正如Forrester分析師所言,Nvidia戴著"金手銬":它是AI的代名詞,但也被迫不斷推出最先進(jìn)的高利潤產(chǎn)品,而放棄利潤率較低的市場,而這恰恰給了競爭者成長空間。
第二,推理芯片將成為增長最快的細(xì)分市場。從Nvidia引入Groq技術(shù)到Google開放Ironwood,從Microsoft優(yōu)化Maia到AWS規(guī)模化Trainium,行業(yè)共識已經(jīng)形成:推理是下一個(gè)主戰(zhàn)場。
第三,垂直整合將加速,資本紐帶將取代市場競爭成為客戶鎖定的核心手段。Tesla建晶圓廠只是最極端的案例。Amazon投資Anthropic、Microsoft投資OpenAI、Google同時(shí)向兩家提供TPU算力,"循環(huán)融資"正在成為AI芯片行業(yè)的新常態(tài)。誰能用資本綁定最關(guān)鍵的AI模型公司,誰的芯片就能獲得最有價(jià)值的市場驗(yàn)證。
第四,系統(tǒng)級性能將取代單芯片性能成為核心競爭力。Chiplet架構(gòu)、HBM-on-Logic集成、光學(xué)互連(CPO/LPO)、軟件定義網(wǎng)絡(luò),這些系統(tǒng)級創(chuàng)新的重要性正在超越芯片本身的工藝節(jié)點(diǎn)。AI數(shù)據(jù)中心的競爭,越來越像是"系統(tǒng)的戰(zhàn)爭"而非"芯片的戰(zhàn)爭"。
還有幾個(gè)開放性問題將在未來數(shù)月內(nèi)揭曉答案:
Google的TPU v8能否如期到來并補(bǔ)齊訓(xùn)練短板?如果成功,AI芯片行業(yè)可能從Nvidia一家獨(dú)大走向雙極格局,但CUDA生態(tài)的護(hù)城河仍是最大變數(shù)。
Intel的Jaguar ShoresGPU能否在2026年內(nèi)問世?這顆基于Intel 18A工藝、包含1750億晶體管、配備288GB HBM4的芯片,紙面規(guī)格頗具競爭力,但正如業(yè)內(nèi)人士的評價(jià):"紙面是要有耐心的。"經(jīng)歷了多次AI GPU的失敗嘗試后,Intel不僅要證明自己能造出芯片并量產(chǎn),還要拿出過硬的軟件支持。一個(gè)健康的AI芯片市場需要第三個(gè)GPU玩家。
Cerebras的WSE-4何時(shí)發(fā)布?WSE-3的44GB SRAM在2026年已顯不足,整片晶圓規(guī)模的芯片概念要延續(xù)生命力,內(nèi)存擴(kuò)展是當(dāng)務(wù)之急。
Tesla的Terafab是又一個(gè)馬斯克式的宏大愿景,還是能真正改變半導(dǎo)體制造格局的顛覆性項(xiàng)目?
當(dāng)AI芯片收入占據(jù)半導(dǎo)體行業(yè)的半壁江山,一旦AI投資周期出現(xiàn)回調(diào),整個(gè)產(chǎn)業(yè)鏈將如何應(yīng)對?
結(jié)語
AI芯片行業(yè)在過去一年經(jīng)歷了一次急劇的加速。Nvidia仍然是這場競賽中當(dāng)之無愧的領(lǐng)跑者,但賽道上的選手從未如此之多、如此之強(qiáng)。專用推理芯片快速崛起,超大規(guī)模云廠商紛紛投入自研硅片,Chiplet架構(gòu)趨于成熟,光學(xué)互連開始落地。而在技術(shù)競爭之上,資本紐帶正在重新定義誰是誰的客戶、誰是誰的對手。
在9750億美元的半導(dǎo)體市場數(shù)字背后,是一個(gè)行業(yè)正在經(jīng)歷的根本性轉(zhuǎn)型:通用計(jì)算讓位于專用智能,單一供應(yīng)商主導(dǎo)走向多元生態(tài)共存,峰值算力競賽轉(zhuǎn)變?yōu)槿到y(tǒng)能效優(yōu)化。2026年下半年,當(dāng)Vera Rubin、MI455X、Trainium 3和各家自研芯片陸續(xù)進(jìn)入規(guī)模部署,當(dāng)Google的TPU v8是否亮相揭曉,我們將看到這場變革的第一批真正的答案。
這不僅僅是一場芯片的戰(zhàn)爭,更是一場關(guān)于AI基礎(chǔ)設(shè)施未來形態(tài)的根本性辯論。而2026年,正是這場辯論從紙面走向現(xiàn)實(shí)的最關(guān)鍵的一年。







快報(bào)
根據(jù)《網(wǎng)絡(luò)安全法》實(shí)名制要求,請綁定手機(jī)號后發(fā)表評論