想象一下,你讓它幫你訂酒店,它點進(jìn)了一個有釣魚代碼的網(wǎng)頁,然后真的把你信息填了進(jìn)去……你根本都不知道它被套路了,因為它是自動執(zhí)行的。

這就不是傳統(tǒng)的“你上當(dāng)”,而是“你的AI替你上了當(dāng)”。

OpenAI 也知道這事兒沒法完全控制

他們不是沒防范:

Agent 接入了行為監(jiān)控機制,能識別一些常見的釣魚操作;

也訓(xùn)練它忽略“看起來不對勁”的網(wǎng)頁指令;

更引入了一個叫 “Takeover mode” 的模式——你可以選擇手動輸入敏感信息,AI不碰。

但 CEO 山姆·奧特曼也明確說了:

“這是新技術(shù),我們也還不知道所有的威脅會是什么。”

這話聽上去很負(fù)責(zé),但說實話,作為普通用戶,我聽完是有點發(fā)怵的。

因為這意味著:一邊是前所未有的效率,另一邊是還不確定的風(fēng)險。

那問題來了:我愿不愿意“讓 AI 替我決定”?

我開始認(rèn)真想一個問題:

“什么事我愿意交給 AI?什么事必須自己來?”

寫郵件、查資料、對比價格,這些我可以交給它。

但訂酒店、刷信用卡、簽約付款這種事,哪怕它效率再高,我也希望“最后一步”自己來。

原因很簡單——AI 沒有責(zé)任。

你今天要是找助理辦錯事,你還能追責(zé)。但 AI 是“工具”,出錯了責(zé)任還是你。

更別說現(xiàn)在的 AI,還不是真的懂判斷,它只是按規(guī)律、按訓(xùn)練決定“下一步要做什么”。

所以不是它不聰明,而是它不靠譜——至少不“負(fù)責(zé)”。

寫在最后

ChatGPT Agent 可能是目前最接近“智能助理”的存在,它甚至可以自己在網(wǎng)上干活、幫你完成現(xiàn)實任務(wù)。但在這個“驚艷”的背后,也暴露了一個現(xiàn)實:

我們與 AI 的關(guān)系,已經(jīng)從“它幫我干活”,開始邁向“它替我做決定”。

如果這是趨勢,我們必須在每一次“授權(quán)”之前問清楚:

我到底愿不愿意,接受一個不具備常識、也沒有責(zé)任感的系統(tǒng),替我做決定?

這不只是技術(shù)問題,更是一個信任問題。

我目前的答案是:用它,但不放權(quán)。

你呢?

本文系作者 科技旋渦 授權(quán)鈦媒體發(fā)表,并經(jīng)鈦媒體編輯,轉(zhuǎn)載請注明出處、作者和本文鏈接。
本內(nèi)容來源于鈦媒體鈦度號,文章內(nèi)容僅供參考、交流、學(xué)習(xí),不構(gòu)成投資建議。
想和千萬鈦媒體用戶分享你的新奇觀點和發(fā)現(xiàn),點擊這里投稿 。創(chuàng)業(yè)或融資尋求報道,點擊這里

敬原創(chuàng),有鈦度,得贊賞

贊賞支持
發(fā)表評論
0 / 300

根據(jù)《網(wǎng)絡(luò)安全法》實名制要求,請綁定手機號后發(fā)表評論

登錄后輸入評論內(nèi)容

掃描下載App