聽(tīng)起來(lái)很美好。但基站真的需要那么聰明嗎?
這就要算一筆賬了。
先看成本。一塊適合基站的GPU,價(jià)格不是小數(shù)。功耗也不是小數(shù)。如果要在幾十萬(wàn)個(gè)基站里全部部署,那將是一筆天文數(shù)字的資本開(kāi)支。而運(yùn)營(yíng)商現(xiàn)在的日子并不好過(guò),流量增長(zhǎng)但收入不增,是過(guò)去十年全球電信行業(yè)的普遍困境。在這種背景下,讓運(yùn)營(yíng)商掏錢(qián)給每個(gè)基站升級(jí)GPU,難度可想而知。
三星電子美國(guó)公司網(wǎng)絡(luò)事業(yè)部戰(zhàn)略與營(yíng)銷(xiāo)副總裁Alok Shah表示:“業(yè)界正在謹(jǐn)慎評(píng)估與在基站中引入GPU相關(guān)的總擁有成本模型和商業(yè)案例。迄今為止,在站點(diǎn)層面全面轉(zhuǎn)向GPU計(jì)算在資本支出和運(yùn)營(yíng)成本上都面臨挑戰(zhàn),但該領(lǐng)域的創(chuàng)新很活躍。我們可能會(huì)發(fā)現(xiàn),在未來(lái)幾年內(nèi),會(huì)有一部分站點(diǎn)的部署在經(jīng)濟(jì)賬上是可行的。”換句話(huà)說(shuō),賬還沒(méi)算清楚,誰(shuí)也不敢輕易拍板。
再看必要性?;菊娴男枰狦PU嗎?還是說(shuō),現(xiàn)有的CPU已經(jīng)夠用了?這其實(shí)是一個(gè)被忽略的問(wèn)題。新一代的x86 CPU,性能早已不可同日而語(yǔ)。很多AI推理任務(wù),尤其是輕量級(jí)的、對(duì)時(shí)延要求不高的任務(wù),CPU完全能應(yīng)付。如果CPU能解決,為什么要多花一筆錢(qián)去買(mǎi)GPU?
一位國(guó)內(nèi)運(yùn)營(yíng)商的專(zhuān)家說(shuō)得更直白:如果說(shuō)算力一定要放到基站里,而且一定要放GPU,我打個(gè)問(wèn)號(hào)。成本太高,運(yùn)營(yíng)商根本接受不了。而且,把算力鎖定在基站里,反而限制了對(duì)算力的靈活調(diào)度——邊緣節(jié)點(diǎn)、匯聚機(jī)房、中心云,算力應(yīng)該是一個(gè)可以動(dòng)態(tài)調(diào)配的資源池,而不是固化在每一個(gè)站點(diǎn)。但也有不同觀(guān)點(diǎn)認(rèn)為,按演示數(shù)據(jù)推算,單站閑置算力若按云計(jì)算市場(chǎng)價(jià)的70%出租,五年內(nèi)就能收回30%的基站建設(shè)成本。
這些話(huà)背后,折射出一個(gè)更本質(zhì)的分歧:AI-RAN究竟應(yīng)該怎么部署,是“全量升級(jí)”還是“按需引入”?英偉達(dá)作為芯片廠(chǎng)商,當(dāng)然希望GPU鋪得越廣越好。但運(yùn)營(yíng)商要考慮的是,到底哪些場(chǎng)景真正需要基站級(jí)別的AI能力。
如果說(shuō)5G時(shí)代,AI還算是個(gè)“加分項(xiàng)”,那么到了6G,情況可能會(huì)發(fā)生變化。通信行業(yè)普遍認(rèn)為,6G網(wǎng)絡(luò)將面臨一個(gè)根本性的挑戰(zhàn):網(wǎng)絡(luò)的復(fù)雜程度將達(dá)到“超越人類(lèi)規(guī)模”的閾值,人腦已經(jīng)無(wú)法實(shí)時(shí)管理。屆時(shí),AI不再是可選項(xiàng),而是必選項(xiàng)。
這不是危言聳聽(tīng)。5G時(shí)代,基站已經(jīng)有了大規(guī)模MIMO天線(xiàn),波束賦形的參數(shù)配置已經(jīng)復(fù)雜到需要算法輔助。到了6G,頻段更高、天線(xiàn)更多、業(yè)務(wù)更雜,靠人工腳本和預(yù)設(shè)策略去管理,幾乎不可能。換句話(huà)說(shuō),未來(lái)的網(wǎng)絡(luò)必須是“自智”的——自己感知、自己決策、自己優(yōu)化。
這就把問(wèn)題倒過(guò)來(lái)了:不是“基站里為什么要放AI”,而是“不放AI的基站還能不能跑得動(dòng)”。
具體到場(chǎng)景,有幾個(gè)方向已經(jīng)比較清晰。
一個(gè)是信道估計(jì)。無(wú)線(xiàn)信號(hào)在空中傳播,受到干擾、衰落、遮擋的影響,基站需要實(shí)時(shí)估計(jì)信道狀態(tài),才能決定用什么樣的參數(shù)發(fā)送數(shù)據(jù)。傳統(tǒng)算法有局限,而AI可以通過(guò)學(xué)習(xí)歷史數(shù)據(jù),更準(zhǔn)確地預(yù)測(cè)信道變化。富士通旗下的一個(gè)團(tuán)隊(duì)給出的數(shù)據(jù)是:用AI改善信道估計(jì),可以把上行鏈路性能提升20%,某些場(chǎng)景下甚至能達(dá)到50%。
另一個(gè)是波束管理。大規(guī)模MIMO基站可以生成多個(gè)窄波束,覆蓋不同方向的用戶(hù)。但用戶(hù)是移動(dòng)的,波束需要跟著人走。如果波束切換不及時(shí),就會(huì)掉線(xiàn)。AI可以預(yù)測(cè)用戶(hù)的移動(dòng)軌跡,提前把波束切過(guò)去,讓用戶(hù)的體驗(yàn)更流暢。
還有頻譜共享。傳統(tǒng)做法是,如果某個(gè)頻段受到干擾,系統(tǒng)干脆把整個(gè)頻段關(guān)掉。但AI可以做得更精細(xì)——識(shí)別出干擾源,只屏蔽受影響的頻率,其他部分照常使用。MITRE在2025年展示的一個(gè)應(yīng)用,做的就是這件事。
這些場(chǎng)景的共同點(diǎn)是:需要實(shí)時(shí)響應(yīng)、需要本地決策、無(wú)法把所有數(shù)據(jù)都傳回中心處理。這正是基站級(jí)AI的意義所在。
如果說(shuō)“AI for RAN”是為了讓網(wǎng)絡(luò)跑得更順,那么“RAN for AI”則是在探索另一種可能性:基站能不能不只是花錢(qián)的基礎(chǔ)設(shè)施,還能成為賺錢(qián)的資產(chǎn)?
軟銀和諾基亞最近做了一個(gè)很有意思的試驗(yàn)。他們?cè)谌毡敬罱艘惶谆谟ミ_(dá)GPU的AI-RAN平臺(tái),白天,基站的算力優(yōu)先保障5G通信——處理用戶(hù)的語(yǔ)音、視頻、數(shù)據(jù)請(qǐng)求;到了夜間,當(dāng)網(wǎng)絡(luò)流量大幅下降,這些原本閑置的GPU算力并沒(méi)有空轉(zhuǎn),而是通過(guò)軟銀的AITRAS編排器自動(dòng)切換成“算力供應(yīng)商”模式,為第三方客戶(hù)運(yùn)行AI推理任務(wù)。
換句話(huà)說(shuō),同一個(gè)基站,白天是通信基站,晚上變成了邊緣AI服務(wù)器。諾基亞首席技術(shù)兼AI官Pallavi Mahajan對(duì)此評(píng)價(jià):“隨著全球AI處理需求加速增長(zhǎng),這個(gè)項(xiàng)目展示了如何利用分布式網(wǎng)絡(luò)資源來(lái)提供可擴(kuò)展、高效且可持續(xù)的AI服務(wù)。”
軟銀先進(jìn)技術(shù)研究所副總裁Ryuji Wakikawa則說(shuō)得更直接:“在A(yíng)I-RAN中,最大化計(jì)算資源的價(jià)值非常重要。我們?cè)鰪?qiáng)了AITRAS編排器,使其能夠?qū)①Y源分配給外部AI工作負(fù)載,從而將這些資源作為新的收入來(lái)源加以利用。”
這種“基站夜間兼職”的模式,觸及了一個(gè)更深層的變革:基站正在從單純的“成本中心”向可能的“利潤(rùn)中心”演進(jìn)。當(dāng)然,這還只是試驗(yàn)。客戶(hù)畫(huà)像還不清晰——是賣(mài)給互聯(lián)網(wǎng)公司做邊緣推理?還是給工業(yè)企業(yè)做機(jī)器視覺(jué)?商業(yè)模式還在探索中。但它至少打開(kāi)了一個(gè)想象空間:如果全城的基站都能在夜間貢獻(xiàn)算力,那將是一張多么龐大的分布式計(jì)算網(wǎng)絡(luò)。
回到最初的問(wèn)題:基站里到底需不需要GPU?
最可能的答案是:部分需要,部分不需要。就像今天的網(wǎng)絡(luò)設(shè)備,有的用專(zhuān)用芯片,有的用通用CPU,有的用FPGA,各取所需。未來(lái)的基站也不會(huì)是單一形態(tài),而是根據(jù)場(chǎng)景和成本,靈活選擇計(jì)算架構(gòu)。
對(duì)于城市熱點(diǎn)、高流量區(qū)域,基站可能確實(shí)需要GPU來(lái)支撐復(fù)雜的AI任務(wù);對(duì)于偏遠(yuǎn)地區(qū)、低負(fù)載站點(diǎn),CPU就夠用了,沒(méi)必要多花錢(qián)。還有一種可能是,GPU不是部署在每一個(gè)基站,而是部署在邊緣節(jié)點(diǎn),覆蓋一片區(qū)域內(nèi)的多個(gè)基站,兼顧算力供給和成本控制。
英偉達(dá)自己也意識(shí)到了這一點(diǎn)。它的AI Aerial平臺(tái),核心賣(mài)點(diǎn)之一就是“資源共享”——同一塊GPU,可以動(dòng)態(tài)分配給RAN任務(wù)和AI任務(wù),忙時(shí)做通信,閑時(shí)做推理,提高利用率,攤薄成本。這其實(shí)是在回應(yīng)運(yùn)營(yíng)商的成本顧慮:你可以不用為AI專(zhuān)門(mén)買(mǎi)一塊GPU,它可以和RAN共用一塊。
軟銀在日本做的試驗(yàn),就是這個(gè)思路。他們用一套系統(tǒng)同時(shí)跑5G和第三方AI應(yīng)用,證明了兩者可以共存,且互不干擾。對(duì)于運(yùn)營(yíng)商來(lái)說(shuō),這提供了一種新的可能性:基站不再只是成本中心,還可以變成算力服務(wù)的輸出節(jié)點(diǎn),創(chuàng)造新的收入來(lái)源。
當(dāng)然,這還只是試驗(yàn)。從試驗(yàn)到規(guī)?;逃茫€有很長(zhǎng)的路。標(biāo)準(zhǔn)怎么定、接口怎么統(tǒng)一、業(yè)務(wù)模式怎么設(shè)計(jì),都是待解的難題。業(yè)內(nèi)人士的回答是:“客戶(hù)畫(huà)像還不清晰,是賣(mài)給互聯(lián)網(wǎng)公司做邊緣推理?還是給工業(yè)企業(yè)做機(jī)器視覺(jué)?商業(yè)模式還在探索中。”
站在2026年回望,AI-RAN的討論已經(jīng)從“要不要做”轉(zhuǎn)向了“怎么做”。英偉達(dá)用兩年時(shí)間,把一個(gè)概念做成了一個(gè)產(chǎn)業(yè)聯(lián)盟,從T-Mobile到軟銀,從諾基亞到思科,越來(lái)越多的大玩家加入其中。這本身就說(shuō)明,方向是對(duì)的。
但“方向?qū)?rdquo;不等于“落地快”。電信行業(yè)有其自身的節(jié)奏,幾億用戶(hù)的網(wǎng)絡(luò)不能隨便折騰,穩(wěn)定可靠永遠(yuǎn)是第一位的。“AI-RAN架構(gòu)能否實(shí)現(xiàn)規(guī)?;逃?,關(guān)鍵取決于其性能表現(xiàn)、成本控制與運(yùn)行穩(wěn)定性。今年MWC上的各類(lèi)演示顯示,相關(guān)技術(shù)基礎(chǔ)正持續(xù)成熟,云計(jì)算、人工智能與通信基礎(chǔ)設(shè)施的融合,已從概念構(gòu)想逐步進(jìn)入可控驗(yàn)證落地階段。”
“AI進(jìn)基站,不會(huì)是顛覆式的推倒重來(lái),而是漸進(jìn)式的滲透融合。”這個(gè)過(guò)程可能需要五年、十年,但一旦完成,網(wǎng)絡(luò)將不再是今天的網(wǎng)絡(luò)。
到那時(shí),基站不僅是收發(fā)信號(hào)的鐵塔,還是感知世界的節(jié)點(diǎn);網(wǎng)絡(luò)不僅是傳輸數(shù)據(jù)的管道,還是承載智能的基礎(chǔ)設(shè)施。而這一切的起點(diǎn),正是今天這些充滿(mǎn)爭(zhēng)議、有待驗(yàn)證的試驗(yàn)和討論。
快報(bào)
根據(jù)《網(wǎng)絡(luò)安全法》實(shí)名制要求,請(qǐng)綁定手機(jī)號(hào)后發(fā)表評(píng)論