2026年被業(yè)界公認為"AI Agent爆發(fā)元年"。從年初Manus驚艷亮相到各大廠商密集發(fā)布Agent產(chǎn)品,AI智能體正以前所未有的速度從實驗室走進生產(chǎn)環(huán)境。
據(jù)IDC最新預(yù)測,全球AI Agent市場規(guī)模將在2026年突破1.2萬億元人民幣。但熱鬧之下,一個幽靈般的難題正在困擾每一位Agent開發(fā)者——
"我的Agent到底行不行?"
你可能也有過這樣的經(jīng)歷:你的AI Agent在Demo里表現(xiàn)完美、驚艷四座,領(lǐng)導(dǎo)看了直呼"就按這個上"。然后你興沖沖地部署上線,結(jié)果真實用戶一用——工具調(diào)錯了、回答跑偏了、各種你沒想過的翻車場景層出不窮。
這不是你的錯。傳統(tǒng)軟件測試的方法論,放在AI Agent身上,就像用體溫計去測地震——工具不對,結(jié)果自然不靠譜。
國際云計算巨頭AWS顯然也意識到了這個痛點。近日,亞馬遜云科技正式發(fā)布了 Amazon Bedrock AgentCore Evaluations,一個專門為AI Agent"體檢"的全托管評估服務(wù)。簡單來說,它就像給你的AI Agent配了一個"質(zhì)檢部門"——不只是告訴你"行"或"不行",而是給你一份詳細的診斷報告。
(報告?zhèn)魉烷T:https://aws.amazon.com/cn/blogs/machine-learning/build-reliable-ai-agents-with-amazon-bedrock-agentcore-evaluations/)
要理解這個問題,首先得明白AI Agent和傳統(tǒng)軟件的根本區(qū)別。
傳統(tǒng)軟件測試,本質(zhì)上是一種確定性驗證:同樣的輸入,期望得到同樣的輸出。測試用例是固定的,判斷標準也是固定的。單元測試、集成測試、端到端測試——這套方法論運行了幾十年,可以說是相當(dāng)成熟了。
但AI Agent不一樣。它的底層是大語言模型(LLM),而LLM天生就是非確定性的。同一個用戶問題,你問三次,Agent可能給出三種不同的回答——選了不同的工具、走了不同的推理路徑、產(chǎn)出了不同的最終答案。
這意味著什么?意味著一次測試的結(jié)果,只能告訴你"可能發(fā)生什么",而不是"通常發(fā)生什么"。
更要命的是,當(dāng)用戶和Agent交互時,整個決策鏈路是這樣的:
1.工具選擇——Agent決定要不要調(diào)用工具、調(diào)用哪個工具;
2.參數(shù)構(gòu)造——Agent構(gòu)造傳給工具的參數(shù)是否正確;
3.結(jié)果合成——Agent把工具返回的結(jié)果整合成最終回答是否準確。
每一個環(huán)節(jié)都可能出問題,而傳統(tǒng)測試只關(guān)注最終輸出是否正確。就好比考試,你只看總分,不看各科成績——就算總分及格了,你可能都不知道數(shù)學(xué)其實掛了。
AWS在這篇博文中點出了一個殘酷的現(xiàn)實:很多團隊陷入了"手動測試 → 發(fā)現(xiàn)問題 → 修提示詞 → 再手動測試"的死循環(huán),燒了大量的API費用,卻始終說不清一件事——
"這個Agent現(xiàn)在到底比上次好了沒有?"
這個問題答不上來,每一次改動就都是一場賭博。
Amazon Bedrock AgentCore Evaluations 的核心思路可以概括為一句話:把"感覺不錯"變成"數(shù)據(jù)說話"。
這個服務(wù)最初在2025年12月的AWS re:Invent大會上以公開預(yù)覽版發(fā)布,現(xiàn)在已經(jīng)正式可用(GA)。它背后有三個基本原則:
原則一:證據(jù)驅(qū)動開發(fā)——用量化指標替代直覺判斷。修改提示詞之后,"感覺好了"不算數(shù),數(shù)據(jù)提升了才算數(shù)。
原則二:多維度評估——不是籠統(tǒng)地打一個總分,而是獨立評估工具選擇、參數(shù)精度、回答質(zhì)量等各個維度,精確定位問題。
原則三:持續(xù)度量——從開發(fā)測試到生產(chǎn)監(jiān)控,用同一套評估標準貫穿Agent的整個生命周期。
在技術(shù)實現(xiàn)上,這個服務(wù)有一個亮點:它基于OpenTelemetry(OTEL)標準。OpenTelemetry是一個開源的可觀測性標準,而AgentCore Evaluations在此基礎(chǔ)上加入了生成式AI的語義約定(包括提示詞、補全結(jié)果、工具調(diào)用、模型參數(shù)等),這意味著——無論你的Agent是用Strands Agents還是LangGraph構(gòu)建的,只要接入了OpenTelemetry或OpenInference,就能直接用這套評估體系。
翻譯成人話就是:它是框架無關(guān)的。你不被鎖定在AWS的生態(tài)里。
AgentCore Evaluations支持三種評估方式,靈活度相當(dāng)高:
1. LLM-as-a-Judge(LLM當(dāng)裁判)
這是最核心的方式。簡單說,就是用一個大模型來評判另一個大模型的輸出。裁判模型會審視整個交互上下文——包括對話歷史、可用工具、實際調(diào)用的工具和參數(shù)、系統(tǒng)指令等——然后給出評分和詳細的推理過程。
值得一提的是,每個分數(shù)都附帶解釋。不是冷冰冰的一個數(shù)字,而是告訴你"為什么給這個分"和"哪里可以改進"。這比單純的人工審查效率高得多。
2. Ground Truth(對標標準答案)
如果你有領(lǐng)域知識,知道"正確答案"應(yīng)該是什么,可以用這種方式。比如你可以預(yù)先定義期望的工具調(diào)用序列、期望的回答內(nèi)容、或者期望達成的目標狀態(tài),然后讓系統(tǒng)比較Agent的實際行為和你的標準答案之間有多大的差距。
3. 自定義代碼評估器
有些時候,你需要的是確定性檢查,比如:Agent有沒有返回精確的賬戶余額$8,333.33?生成的請求ID是否符合PTO-2026-NNN的格式?這類問題LLM裁判不一定靠譜,但一段代碼就能搞定。AgentCore Evaluations允許你接入AWS Lambda函數(shù),用自定義代碼來做精確校驗。而且Lambda調(diào)用的成本只有LLM推理的一小部分,適合大規(guī)模生產(chǎn)環(huán)境下的高頻評估。
AgentCore Evaluations最巧妙的設(shè)計之一,是它把評估分成了兩種模式,分別覆蓋Agent生命周期的不同階段:
![]()
在線評估的邏輯很直觀:系統(tǒng)會從生產(chǎn)流量中持續(xù)采樣一定比例的Agent交互(采樣率可配置),自動評分并展示在AgentCore Observability儀表板上。一個很關(guān)鍵的洞察是:很多時候,傳統(tǒng)的運維監(jiān)控(延遲、錯誤率)都是綠的,但用戶體驗已經(jīng)在悄悄惡化——因為Agent可能開始選錯工具了、回答沒那么有幫助了,但系統(tǒng)層面并沒有報錯。在線質(zhì)量評分能抓住這種"無聲的退化"。
按需評估則更像是開發(fā)者的"實驗室"。你選擇特定的交互(通過trace ID或span ID),指定評估器,系統(tǒng)會給出詳細的評分和解釋。最適合的場景包括:驗證提示詞修改的效果、對比不同模型的性能、在CI/CD流水線里做回歸測試。
兩種模式使用同一套評估器,這意味著你在開發(fā)階段測試的標準,和生產(chǎn)環(huán)境監(jiān)控的標準是完全一致的。不會出現(xiàn)"開發(fā)環(huán)境一切正常,上線就翻車"的尷尬。
這是整篇文章最"干貨"的部分。AgentCore Evaluations把Agent交互組織成三層結(jié)構(gòu),對應(yīng)不同粒度的評估需求:
![]()
這三層分開評估的價值在于精確定位問題。比如你的Agent可能工具選對了、參數(shù)也傳對了,但最終生成的回答質(zhì)量很差——這種情況只有在獨立評估各層之后才能發(fā)現(xiàn)。
但更有意思的是評估器之間的關(guān)系和權(quán)衡。AWS在這篇文中分享了一些非常實用的洞察:
依賴關(guān)系:
矛盾關(guān)系:
這些洞察對于實際調(diào)優(yōu)Agent非常有價值。比如你發(fā)現(xiàn)"正確性"分數(shù)低,別急著改回答生成邏輯——先去查查"上下文相關(guān)性"是不是也不高,也許問題出在信息檢索環(huán)節(jié)。
AWS在文中還分享了一些實用的最佳實踐和常見問題排查模式:
通常說明是基礎(chǔ)性問題。優(yōu)先檢查:上下文相關(guān)性(Agent有沒有獲取到正確信息?)、系統(tǒng)提示詞(是否有模糊或矛盾的指令?)、工具描述(是否準確解釋了工具的用途和使用方式?)。
大概率是評估器配置問題,而非Agent本身的問題。檢查自定義評估器的指令是否足夠具體、每個評分等級是否有清晰可區(qū)分的定義。也可以考慮降低評估模型的溫度參數(shù),讓評分更穩(wěn)定。
說明Agent選對了工具,但沒能完成用戶的目標??赡茉颍喝鄙倌承┍匾墓ぞ?、或者Agent難以處理需要多步順序調(diào)用的任務(wù)。建議同時查看"有幫助性"分數(shù)。
在整體策略上,AWS建議:
從3-4個評估器開始,根據(jù)你的Agent類型選擇最關(guān)鍵的那些。比如客服型Agent優(yōu)先關(guān)注"有幫助性"和"目標完成率";RAG型Agent重點看"正確性"和"忠實性";工具密集型Agent盯緊"工具選擇準確率"和"工具參數(shù)準確率"。
每個問題至少測10遍,按類別分組統(tǒng)計方差,看看你的Agent在哪些方面穩(wěn)定、哪些方面還需要打磨。
每次改動前后都做對照實驗,讓數(shù)據(jù)來說話,而不是憑感覺說"好像好了點"。
跳出AWS的產(chǎn)品視角,我們來看看這個行業(yè)趨勢。AgentCore Evaluations的發(fā)布,折射出的是整個AI Agent行業(yè)正面臨的一個共性挑戰(zhàn):從"能不能用"到"用得好不好"的范式轉(zhuǎn)變。
Gartner在2025年的報告中就指出,到2028年,33%的企業(yè)軟件將內(nèi)嵌Agent能力,而到2026年,AI Agent的商業(yè)化落地將從探索期進入規(guī)?;渴鹌凇_@意味著,Agent的可靠性和可衡量性將成為企業(yè)選型的關(guān)鍵決策因素。
事實上,"LLM-as-a-Judge"這個概念早在2023年就被學(xué)術(shù)界提出(參考論文《LLM-as-a-Judge: Scaling Evaluation for LLM-at-Work》),但將其工程化、產(chǎn)品化并整合進Agent全生命周期管理平臺,AWS這次可以說是走在了前面。
這給行業(yè)的信號很明確:AI Agent的質(zhì)量評估不能再是"玄學(xué)",必須變成"科學(xué)"。未來,一個成熟的Agent產(chǎn)品,不僅要能"做事",還要能"證明自己做得好"。
回到開頭那個問題——"我的Agent到底行不行?"
Amazon Bedrock AgentCore Evaluations給出的答案是:不要猜,去測。不是隨便測測,而是用系統(tǒng)化的、多維度的、貫穿全生命周期的評估體系來持續(xù)測量和改進。
對于行業(yè)外的讀者來說,這件事的意義在于:AI Agent正在從"實驗室玩具"進化為"生產(chǎn)級工具",而這個進化的關(guān)鍵一步,就是建立可靠的"質(zhì)量體檢體系"。就像汽車工業(yè)的發(fā)展——不是發(fā)動機技術(shù)最關(guān)鍵,而是碰撞測試、耐久測試、排放檢測等一整套質(zhì)檢標準,讓普通消費者敢放心上路。
對于業(yè)內(nèi)人士來說,AgentCore Evaluations提供了一個值得參考的評估框架,尤其是三層評估體系(會話/追蹤/工具)、評估器間的依賴與權(quán)衡關(guān)系、以及在線評估+按需評估的雙模式設(shè)計,都具有較高的借鑒價值。
當(dāng)然,這套體系也不是萬能藥。它評估的是"質(zhì)量"維度,而Agent的商業(yè)成功還需要綜合考慮延遲、成本、用戶體驗等多個因素。但至少,當(dāng)我們討論"這個Agent行不行"的時候,終于可以有數(shù)據(jù)支撐了——
告別"盲人摸象",擁抱"精準診斷"。
(本文首發(fā)鈦媒體APP,作者 | 硅谷Tech_news,編輯 | 焦燕)
快報
根據(jù)《網(wǎng)絡(luò)安全法》實名制要求,請綁定手機號后發(fā)表評論