4月9日,OpenAI正式宣布暫停其在英國的“星際之門”人工智能基礎設施項目,這一消息立刻引發(fā)了行業(yè)內(nèi)對AI大規(guī)模落地過程中成本與政策環(huán)境問題的關注。據(jù)該公司聲明,暫停的核心原因集中在能源成本與監(jiān)管環(huán)境兩方面——盡管OpenAI依然看好英國AI產(chǎn)業(yè)的長期潛力,但當前條件還不足以支撐如此大規(guī)模的基礎設施投資。
“星際之門”本是為支撐下一代大模型訓練打造的超算集群,對技術的要求包括高密度GPU算力、低延遲網(wǎng)絡以及穩(wěn)定的電力供應。行業(yè)數(shù)據(jù)顯示,訓練一個GPT-3級別的模型大約要消耗1.28太瓦時電能,這相當于1000戶英國家庭一年的用電量;如果“星際之門”集群用上10000塊NVIDIA H100 GPU(每塊功耗700W),單是計算設備的功耗就達到7MW,再加上冷卻系統(tǒng),總功耗會突破10MW。
能源成本的差異是關鍵瓶頸。英國能源監(jiān)管局Ofgem 2024年第一季度的數(shù)據(jù)顯示,英國工業(yè)用電均價約0.18英鎊/千瓦時,而美國得克薩斯州同期的工業(yè)電價僅約0.065英鎊/千瓦時(由0.08美元/千瓦時換算而來)。按10MW的日功耗計算,英國每天的電費大約是4.32萬英鎊,一年下來超過1570萬英鎊,比得州高出3倍多。對于需要持續(xù)高算力支持的AI項目來說,這樣的成本差距幾乎無法承受。
監(jiān)管環(huán)境的不確定性則進一步加大了決策難度。英國《人工智能法案》目前還在議會審議階段,針對大型AI模型的合規(guī)要求、數(shù)據(jù)使用規(guī)范等核心條款都還沒最終敲定。作為全球AI領域的領軍企業(yè),OpenAI需要清晰的政策框架來評估長期投資風險,但眼下這種模糊狀態(tài)讓它很難推進項目落地。
這一事件也折射出全球AI基礎設施競爭的新趨勢——能源成本與政策穩(wěn)定性已經(jīng)成為吸引巨頭投資的核心因素。美國得州、弗吉尼亞州靠著低廉的電價和寬松的監(jiān)管,已經(jīng)成了AI超算集群的熱門選址;歐盟那邊,愛爾蘭、德國則通過可再生能源補貼和明確的AI監(jiān)管路徑,也在積極爭奪相關項目。英國要是想重新吸引OpenAI這類企業(yè),就得在降低能源成本和加快監(jiān)管框架落地這兩方面下功夫。
行業(yè)最新動態(tài)顯示,歐盟《人工智能法案》預計2024年第二季度完成最終談判,屆時會對大型語言模型實行分級監(jiān)管;競爭對手方面,Google DeepMind已經(jīng)在英國倫敦設有研發(fā)中心,還計劃擴大本地算力布局,依托Google的全球超算資源,它在能源成本控制上有不小優(yōu)勢;Meta則在愛爾蘭都柏林運營數(shù)據(jù)中心,全部采用可再生能源供電,成本優(yōu)勢很明顯。這些動向都說明,AI基礎設施的競爭已經(jīng)進入“成本+政策”雙輪驅(qū)動的新階段。






快報