免费看在线a黄视频|99爽99操日韩毛片儿|91停婷在线无码观看|日韩三级片小视频|一级黄片免费播放|欧美成人视频网站导航|亚洲日韩欧美七区|国产视频在线观看91|人成视频免费在线播放|国产精品成人在线免费观看

AI的下一步:智能體

AGI
智能體或許不是AI的終點,卻很可能是AI走向現(xiàn)實世界的第一步。

文 | 大灣區(qū)人工智能應(yīng)用研究院

人的智能有三個方面:信息的收集、信息的處理產(chǎn)生認知、基于認知的行動。大語言模型目前主要的應(yīng)用形態(tài)是ChatGPT這樣的聊天機器人(Chatbot),能力集中在前兩個方面。但更加有用的機器智能不只停留在“理解”和“說話”,如果能像一個或一群優(yōu)秀的人才那樣幫我們“做事”,顯然能創(chuàng)造更大的價值。這就需要AI智能體(Agent)。

智能體是能做事的A I。LLM是近幾年AI領(lǐng)域最重要的發(fā)展。已經(jīng)在語言理解與生成、對話交互以及知識整合等方面展示出超凡能力,但它是“缸中大腦”——擅長思考、分析與回答問題,卻并不能真正地做事情。而在真實世界,大多數(shù)認知活動并不止于“給出答案”,而是要有完整的“認知-行動”閉環(huán):我們要求AI得能夠自主的拆解復(fù)雜需求,規(guī)劃流程,調(diào)用工具和資源,實現(xiàn)從感知到?jīng)Q策再到執(zhí)行的完整循環(huán);進一步我們還希望AI的行動能夠超出計算機和互聯(lián)網(wǎng)領(lǐng)域,在物理世界中為我們做事情,則需要AI能夠感知物理世界的信號,進行匹配具身的思考,通過設(shè)備/機器人把決策轉(zhuǎn)化為執(zhí)行,對現(xiàn)實環(huán)境產(chǎn)生直接影響。

打個比方,LLM像是“未出山前的諸葛亮”,善于分析,以“隆中對”和劉備對談,出謀劃策,但限于“紙上談兵”;智能體則是“出山后的諸葛亮”,掌握全局情報,運籌帷幄,組織資源、調(diào)兵遣將,親自率軍北伐。

智能體以LLM為代表的前沿模型作為大腦,通過軟件工程令其可以在高階目標驅(qū)動下完成復(fù)雜任務(wù)。可以說未來大部分的復(fù)雜AI應(yīng)用都會以Agent為載體。事實上,我們在科幻作品中所看到的AI形象,比如《鋼鐵俠》中的賈維斯或《2001:太空漫游》中的HAL 9000,正是創(chuàng)作者對以Agent為載體的未來AI的直觀想象。只是和物理世界交換的AI本身就極為重要和復(fù)雜,現(xiàn)在習(xí)慣上把這部分單獨放在具身智能/機器人領(lǐng)域討論。

智能體能力的構(gòu)成

為了在各行各業(yè)的應(yīng)用中發(fā)揮出顯著價值,理想中的智能體需要具備幾個關(guān)鍵條件。

首先,智能體應(yīng)具備強大的目標理解和規(guī)劃能力來體現(xiàn)智能的自主性。理想狀態(tài)下,人類只需給出抽象目標,智能體便能理解目標、拆解任務(wù)、規(guī)劃行動,并在盡量少的人工干預(yù)下完成執(zhí)行閉環(huán)。就像影《星際穿越》中的機器TARS,在緊急情況下能夠根據(jù)"拯救宇航員"這一目標,自主判斷局勢、制定和調(diào)整行動策略,甚至做出犧牲自己數(shù)據(jù)的決定來完成使命。這要求機器智能有深度“理解/思考”能力(推理、規(guī)劃、決策),能夠敏銳地決策,能夠基于執(zhí)行結(jié)果與環(huán)境反饋動態(tài)調(diào)整任務(wù)規(guī)劃,而不是僵化地執(zhí)行既定路徑。

其次,我們希望智能體能“動手”做事:執(zhí)行和交互能力這就意味著它能夠使用工具、執(zhí)行操作,并能與外部環(huán)境發(fā)生直接交互。在數(shù)字世界中,智能體可以模擬人類操作,通過鍵盤輸入、點擊屏幕的方式來完成任務(wù);也可以通過其他程序或系統(tǒng)接口來調(diào)用工具;還可以發(fā)揮模型特長,通過編寫和執(zhí)行代碼來達成目的。在物理世界中,智能體則需要與各類控制系統(tǒng)和設(shè)備相連接,通過下達指令來操控物理對象,將智能決策轉(zhuǎn)化為現(xiàn)實行動。

第三,我們希望智能體具備出色的記憶與學(xué)習(xí)能力。記憶和狀態(tài)管理能力是完成長程、復(fù)雜任務(wù)的前提。在面向消費者的場景中,例如個性化的日程管理或長期服務(wù)支持,智能體需要跨會話地記住用戶偏好、歷史交互與長期狀態(tài),才能減少重復(fù)溝通、提升服務(wù)質(zhì)量;在企業(yè)級應(yīng)用中,如跨周期項目管理、復(fù)雜業(yè)務(wù)流程推進等,則需要智能體記住任務(wù)進度、中間結(jié)果與關(guān)鍵決策依據(jù),確保任務(wù)在長周期、多階段執(zhí)行中保持連貫性,不中途偏離既定目標。學(xué)習(xí)能力的意義是我們希望智能體能持續(xù)提升,像人類員工一樣可以從職場小白通過經(jīng)驗積累和吸收新知進化成專家。

最后,智能體還需要有很強的可靠性、可控性,才能規(guī)?;膸韮r值。這既體現(xiàn)在智能體能否穩(wěn)定、魯棒地完成任務(wù),也體現(xiàn)在其行為是否始終與人類的真實意圖與價值觀保持一致。在《2001:太空漫游》中,AI為完成任務(wù)選擇犧牲人類乘員,正是目標函數(shù)與人類價值未能有效對齊的極端后果。隨著智能體智能水平與自主性的提升,這類對齊失敗帶來的風(fēng)險可能會被進一步放大。

如何構(gòu)建智能體

有了理想的標桿,我們怎么構(gòu)建智能體?基本邏輯很簡單:以可獲取的最“聰明”、理想的模型為核心(大腦),通過軟件工程來搭建一個系統(tǒng),彌補模型的不足,盡量逼近理想智能體的形態(tài)。

大模型是目前智能體大腦的最優(yōu)選擇,因為大模型的萬億參數(shù)壓縮了人類積累的海量知識,擁有強大的模式識別和生成能力,是處理包括語言在內(nèi)的多種非結(jié)構(gòu)化數(shù)據(jù)的萬能接口,擁有不錯的泛化能力構(gòu)成處理各類任務(wù)的基礎(chǔ)。而以O(shè)penAI o1/DeepSeek R1為代表的新一代推理模型為智能體的發(fā)展進一步助推:加強的推理能力帶來更強的任務(wù)分解和規(guī)劃,更好地自檢和糾錯,也令智能體對工具的使用可以更加準確。

大模型有一些結(jié)構(gòu)性弱點,直接限制了智能體在真實業(yè)務(wù)中的應(yīng)用價值,因此智能體工程的一大核心工作,就是在模型外圍,用工程手段補齊短板、設(shè)置邊界、約束行為。

首先,大模型本身沒那么可靠:存在無法根除的幻覺問題、知識時效性問題,任務(wù)拆解和規(guī)劃經(jīng)常不合理,也缺乏面向特定任務(wù)的系統(tǒng)性校驗機制。這樣一來,以其為“大腦”的智能體使用價值會大打折扣:智能體把模型從“對話”推向“行動”,錯誤不再只是答錯問題,而是可能引發(fā)實際操作風(fēng)險;而真實業(yè)務(wù)任務(wù)往往是跨系統(tǒng)、長鏈路的,一次小錯誤會在鏈路中層層放大,令長鏈路任務(wù)的失敗率居高不下(例如單步成功率為95%時,一個 20步鏈路的整體成功率只有約 36%)。

為此,智能體工程通常通過以下幾類手段給大模型加“外骨骼”以改善可靠性:引入檢索與知識庫(RAG)以降低幻覺和知識陳舊的影響;預(yù)先設(shè)計和約束工作流,而不是完全自由的“自治智能體”,以此限定可接受的執(zhí)行路徑;通過多次回答、自一致性檢查或模型間交叉驗證,識別并過濾高風(fēng)險輸出;在關(guān)鍵鏈路節(jié)點上設(shè)置人工審批,讓人類對高風(fēng)險動作“最后拍板”。

其次,大模型的記憶能力有缺陷:大模型在訓(xùn)練時“記住”了大量知識,但訓(xùn)練完成后并不會在使用中持續(xù)學(xué)習(xí)、“記住“新知識;每次推理時,它只能依賴有限長度的上下文窗口來“記住”當前任務(wù)的信息(不同模型有不同上限,超過窗口的內(nèi)容就會被遺忘),而無法像人一樣自然地維持穩(wěn)定、長期的個體記憶。但在真實業(yè)務(wù)中,我們需要機器智能有強大的記憶能力,比如一個AI老師,需要持續(xù)記住學(xué)生的學(xué)習(xí)歷史、薄弱環(huán)節(jié)和偏好,才能在后續(xù)的講解與練習(xí)中真正做到“因人施教”。

針對這些記憶缺陷,智能體工程通常采取以下手段進行增強:構(gòu)建外部記憶庫將用戶偏好、業(yè)務(wù)知識、歷史交互等存儲在數(shù)據(jù)庫中,智能體在需要時通過檢索機制按需提取相關(guān)信息,應(yīng)對長期記憶缺陷;對過長的上下文進行摘要和壓縮,保留核心信息,釋放Token空間,來應(yīng)對信息過載導(dǎo)致的短期記憶遺忘。

除了補短板,因為智能體要行動、要和環(huán)境交互,需要有感知和執(zhí)行。

首先,大模型本身無法主動感知,只能對輸入被動響應(yīng)。智能體需要用外部感知組件來主動獲取環(huán)境信息。對于數(shù)字世界的任務(wù),通過智能體工程可以建立基于時間的觸發(fā)器,定期檢查日志、郵件、股價變動等;或基于事件的訂閱、監(jiān)聽,接收API推送的事件通知,或當數(shù)據(jù)庫發(fā)生變更時自動喚醒記錄數(shù)據(jù)。在物理世界中,智能體還可以通過傳感器、攝像頭、麥克風(fēng)等設(shè)備采集視覺、聽覺、觸覺等信號。

其次,大模型沒有天然的執(zhí)行能力,需要輔以智能體工程來將意圖轉(zhuǎn)化為實際操作。工具調(diào)用是當前最主流的方式,大模型根據(jù)任務(wù)需求,生成結(jié)構(gòu)化的函數(shù)調(diào)用指令,由智能體框架解析后執(zhí)行相應(yīng)操作,比如調(diào)用天氣API、數(shù)據(jù)庫查詢、發(fā)送郵件等;另一種方式是模擬人類操作,通過視覺識別和模擬操作來"看屏幕、點按鈕、填表單"來完成任務(wù),近期大火的豆包手機就是這樣完成智能體操作;對于更復(fù)雜的任務(wù),智能體還可以配置代碼解釋器(Code Interpreter / Sandbox),讓模型編程運行,這可以極大的擴展智能體的行動邊界。

當下智能體的能力邊界

剛剛過去的2025年被不少AI從業(yè)者和科技媒體稱作“智能體元年”。這個觀察是較為準確的,得益于以下幾個條件的成熟,過去一年左右的智能體發(fā)展進入快車道:

首先是大模型的持續(xù)進步,主要體現(xiàn)在推理模型的出現(xiàn)提供了更強的任務(wù)理解、規(guī)劃能力,以及多模態(tài)模型的發(fā)展為智能體能夠處理和生成更復(fù)雜的信息提供了基礎(chǔ)。

其次是基礎(chǔ)設(shè)施和生態(tài)的成熟,包括LangChain、AutoGPT等開源框架經(jīng)過兩年的迭代,已經(jīng)形成了一套標準化的開發(fā)范式,極大地縮短了開發(fā)周期;Dify、Coze(扣子)等低代碼/無代碼平臺的普及,讓不懂代碼的業(yè)務(wù)人員也能通過拖拉拽快速生成一個專用智能體;值得一提的是2025年Anthropic發(fā)布的MCP(模型上下文協(xié)議)和skills(技能系統(tǒng))給智能體生態(tài)提供了重要的標準和啟發(fā):MCP作為一個開源協(xié)議標準,令大模型與外部數(shù)據(jù)源或工具之間的交互更統(tǒng)一、便捷,Skills則是把人類設(shè)計的完成某類任務(wù)所需的能力/工作流打包起來,讓Agent在這類任務(wù)上可以更穩(wěn)定的工作,雖然技術(shù)含量不高,但在當下有很強的實用性。

再次,學(xué)術(shù)界和產(chǎn)業(yè)界都有大量的人才、資源投入到智能體領(lǐng)域,以ACL(國際計算語言學(xué)協(xié)會年會)2025為例,有超過230篇論文和智能體相關(guān),為歷年最高,涵蓋規(guī)劃、工具使用、多智能體協(xié)作與評估等多個方向。

在能力的提升、生態(tài)的健全、資源的投入影響下,各行各業(yè)正在嘗試把智能體真正的用起來。根據(jù)麥肯錫2025年全球調(diào)研顯示,約62%的受訪組織已在部分業(yè)務(wù)中嘗試智能體(23%為至少一個場景的規(guī)?;渴?,39%為試驗性應(yīng)用);但從業(yè)務(wù)職能的具體采用數(shù)據(jù)來看,產(chǎn)業(yè)對智能體的應(yīng)用還處于早期階段:根據(jù)該調(diào)查,對于智能體應(yīng)用最多的職能依次是IT、知識管理、營銷和服務(wù),以應(yīng)用最多的IT為例,僅有2%和8%的受訪企業(yè)IT部門全面規(guī)?;‵ully Scaled)和規(guī)模化(Scaling)的應(yīng)用智能體,以及6%和7%的企業(yè)IT部門試點(Piloting)和試驗(Experimenting)的應(yīng)用。

造成這種規(guī)?;瘧?yīng)用水平較低的原因有兩方面一是前面討論的智能體能力問題,雖然在快速進步,但離全面的實用性還有距離;二是各行各業(yè)的企業(yè)應(yīng)用者要把智能體用好還需要一些自身條件的配合。

第一方面,除了短任務(wù)鏈條的數(shù)據(jù)分析、生成、檢索等方面的應(yīng)用,智能體現(xiàn)在規(guī)模化應(yīng)用場景大體可以概括為兩類,一是在編程領(lǐng)域,編程是智能體最理想的"練兵場",環(huán)境隔離、容錯率高,目標明確、目前規(guī)劃能力能應(yīng)對,程序可執(zhí)行,還有即時的執(zhí)行反饋。這令其成為智能體第一個大規(guī)模、商業(yè)化的突破口。二是在各行各業(yè)的各種業(yè)務(wù)(銷售、客服、人力等)的專用智能體可以集合成一個大類,有一個共同點:目前主要是工作流自動化類型,其實這也是應(yīng)對智能體深度理解(規(guī)劃、決策)能力不足的權(quán)宜之計,通過把智能體的任務(wù)的開放性降低、給出參考工作流程、定義可用的有限工具集等來提高智能體在這些任務(wù)上的工作質(zhì)量。智能體進一步的規(guī)?;瘧?yīng)用需要其能力進化,為企業(yè)能夠帶來切實的價值。

第二方面,企業(yè)要用好智能體需要組織和資源上的匹配。根據(jù)Anthropic 2026年的最新調(diào)研,46%的受訪者表示與現(xiàn)有系統(tǒng)的集成是智能體部署的主要障礙,43%和42%的受訪者分別指向?qū)嵤┏杀竞蛿?shù)據(jù)的可及性/質(zhì)量,40%和39%的受訪者表示安全/合規(guī)和員工的學(xué)習(xí)成本/抵制是重要障礙(中小企業(yè)尤其擔(dān)心學(xué)習(xí)成本,51%的受訪者指向這一點)。對于企業(yè)的顧慮,成本、安全等問題和技術(shù)進步的關(guān)系較大,但數(shù)據(jù)問題、集成問題、學(xué)習(xí)或人才問題都是需要企業(yè)通過組織變革、進一步數(shù)字化和全員的學(xué)習(xí)來提升。

總結(jié)與展望

未來,智能體將會是我們在各行各業(yè)、各種場景應(yīng)用人工智能的主要載體。可以預(yù)見,隨著模型能力和智能體工程的進步,企業(yè)數(shù)據(jù)治理和組織適配的提升,智能體會逐步成為每家企業(yè)極有競爭力的數(shù)字員工,和我們?nèi)祟悊T工競爭與協(xié)作。

從路徑上看,前面提到現(xiàn)在智能體規(guī)?;瘧?yīng)用集中在編程和工作流自動化方面,隨著機器智能深度理解水平的提升,可以預(yù)期智能體的應(yīng)用會不斷拓展邊界,能承擔(dān)更抽象、復(fù)雜的任務(wù),更多的自主規(guī)劃和決策,來把人類的意圖轉(zhuǎn)化為結(jié)果。當然,突破不等于拋棄工作流。在企業(yè)高風(fēng)險場景里,工作流/權(quán)限/審計會變成“護欄”,用來限制智能體的行動空間,以確保應(yīng)用的安全。在相當長的時間內(nèi),人類的審批、審計在智能體工作的閉環(huán)中可能都是不可缺少的。

智能體發(fā)展的另一個關(guān)鍵方向,是成為人類的“個人助手”或“智能代理”。與其他類型的智能體相比,這一方向的門檻更高,因為它需要更強的個性化能力、長期記憶、跨場景泛化能力以及更嚴格的安全邊界。個人助手型智能體有潛力重塑人類與世界的交互方式——無論是購物、社交,還是信息獲取——并可能對很多產(chǎn)業(yè)的商業(yè)邏輯產(chǎn)生顛覆性影響。

過去一年中,“豆包手機”的推出,以及2026年年初爆火的“OpenClaw”,讓我們看到了助手型智能體的一些早期探索,令人振奮。前者代表了設(shè)備級智能體的嘗試:它將智能體能力深度嵌入操作系統(tǒng),通過模擬人類操作以調(diào)取各類App,為用戶完成任務(wù)。后者則是一種始終在線的解決方案,能夠主動觀察與執(zhí)行任務(wù),并通過本地部署獲取豐富的個性化數(shù)據(jù)和軟件控制權(quán),初步體現(xiàn)了個人助手型Agent的一些核心特征。

根據(jù)IDC的預(yù)計,活躍智能體的數(shù)量將從2025年的約2860萬,攀升至2030年的22.16億。這意味著五年后,能夠幫助企業(yè)或個體執(zhí)行任務(wù)的數(shù)字勞動力數(shù)量將是現(xiàn)在的近80倍,年復(fù)合增長率139%;任務(wù)執(zhí)行的數(shù)量將從2025年的440億次暴漲至2030年的415萬億次,年復(fù)合增長率高達524%;Token的消耗將從2025年的5000億激增至2030年的1.5萬億億,年復(fù)合增長34倍。IDC的預(yù)測未必準確,但趨勢非常明顯,每一家企業(yè)都要為此做好準備。

本文系作者 大灣區(qū)人工智能應(yīng)用研究院 授權(quán)鈦媒體發(fā)表,并經(jīng)鈦媒體編輯,轉(zhuǎn)載請注明出處、作者和本文鏈接。
本內(nèi)容來源于鈦媒體鈦度號,文章內(nèi)容僅供參考、交流、學(xué)習(xí),不構(gòu)成投資建議。
想和千萬鈦媒體用戶分享你的新奇觀點和發(fā)現(xiàn),點擊這里投稿 。創(chuàng)業(yè)或融資尋求報道,點擊這里

敬原創(chuàng),有鈦度,得贊賞

贊賞支持
發(fā)表評論
0 / 300

根據(jù)《網(wǎng)絡(luò)安全法》實名制要求,請綁定手機號后發(fā)表評論

登錄后輸入評論內(nèi)容

掃描下載App