員工們被ChatGPT的高效所吸引,用其修復(fù)源代碼錯誤、優(yōu)化代碼和整理會議紀(jì)要,卻無意中將包括半導(dǎo)體設(shè)備測量數(shù)據(jù)、產(chǎn)品良率等在內(nèi)的核心機密變成了OpenAI訓(xùn)練數(shù)據(jù)庫的一部分。
基于此,大廠“逆行者”的禁令更像是理性的風(fēng)險規(guī)避,他們充分認識到在第三方AI服務(wù)的數(shù)據(jù)隱私政策、數(shù)據(jù)使用邊界以及安全保障措施沒有達到企業(yè)級信任標(biāo)準(zhǔn)之前,任何形式的“引狼入室”都是一場豪賭。
而對于GW這樣的內(nèi)容創(chuàng)意公司而言,除了數(shù)據(jù)安全,另一個致命的風(fēng)險來自版權(quán)與合規(guī)的模糊地帶,這也是生成式AI與生俱來的原罪。
當(dāng)前的生成式AI模型學(xué)習(xí)了互聯(lián)網(wǎng)上數(shù)以萬億計的文本和圖像,其中必然包含了海量受版權(quán)保護的作品。可AI生成的內(nèi)容其版權(quán)歸屬如何界定、是否構(gòu)成了對原作者的侵權(quán),如果公司使用了AI生成的設(shè)計是否會陷入無窮無盡的版權(quán)糾紛等問題,在當(dāng)前的法律框架下尚無明確答案。
對于像GW這樣以視覺風(fēng)格和世界觀設(shè)定為核心資產(chǎn)的公司而言,這種不確定性是不可接受的。一旦內(nèi)部創(chuàng)作流程被AI“污染”,整個IP的合規(guī)風(fēng)險將徹底失控,原創(chuàng)價值驟降,幾十年來藝術(shù)家構(gòu)建的知識產(chǎn)權(quán)大廈就可能因為AI工具的使用而毀于一旦。
除了安全與版權(quán),對AI輸出結(jié)果可靠性的擔(dān)憂也是“逆行者”們謹慎行事的重要原因。幻覺是生成式AI廣為人知的問題,它會以極度自信、極具說服力的語氣編造出完全錯誤的事實、邏輯或引用。
在日常娛樂或信息檢索中,這種“一本正經(jīng)地胡說八道”或許無傷大雅,但對于金融、科技、醫(yī)療、高端制造等容錯率極低的行業(yè),小小的錯誤就可能引發(fā)連鎖風(fēng)險。
復(fù)旦大學(xué)附屬華山醫(yī)院的科主任張文宏也曾在近日公開表態(tài),認為如果年輕醫(yī)生過度依賴AI進行診斷,將有可能失去獨立判斷和識別AI錯誤的能力,在此基礎(chǔ)上一旦AI幻覺出現(xiàn),影響的可能就是鮮活的生命。
而在金融領(lǐng)域,摩根士丹利雖然在積極探索AI應(yīng)用,甚至通過與OpenAI的戰(zhàn)略合作推出一整套生成式AI工具,但其對AI的使用場景依舊進行嚴(yán)格限制。畢竟AI分析模型若應(yīng)用到投資時產(chǎn)生幻覺、給出錯誤的投資建議,可能瞬間導(dǎo)致數(shù)億甚至數(shù)十億美元的損失。
從游戲、醫(yī)療到金融,不同領(lǐng)域的“逆行者”都認識到了AI的效率必須與責(zé)任相匹配。在AI的可靠性、可解釋性和可問責(zé)性得到根本解決之前,將其應(yīng)用于高風(fēng)險決策環(huán)節(jié)無異于在沒有安全網(wǎng)的情況下高空走鋼絲。
不過盡管觀念與時代的大趨勢相反,AI反對派的行為還是給整個行業(yè)提供了寶貴的“試錯樣本”。
當(dāng)大多數(shù)企業(yè)還在為“要不要用AI”而焦慮時,這些先行者已經(jīng)開始深入思考“如何在合規(guī)、安全的前提下用好AI”,他們的禁令與限制倒逼著整個AI產(chǎn)業(yè)在狂飆之余,也開始認真地正視數(shù)據(jù)隱私、版權(quán)歸屬、算法倫理等核心問題。
這也意味著,未來AI能否真正深度賦能千行百業(yè),其核心或許不在于模型的參數(shù)有多大、能力有多強,更關(guān)鍵的是否能為它建立起一套行之有效的治理體系,讓AI真正安全高效地服務(wù)用戶和社會。
快報
根據(jù)《網(wǎng)絡(luò)安全法》實名制要求,請綁定手機號后發(fā)表評論