近期,蘋果與谷歌兩大科技巨頭的應(yīng)用商店因存在大量AI驅(qū)動(dòng)的“脫衣”應(yīng)用而受到監(jiān)管審查。盡管兩家公司都制定了針對(duì)非自愿露骨內(nèi)容的政策,但仍有超過100款此類應(yīng)用通過審核上架——谷歌應(yīng)用商店有55款,蘋果應(yīng)用商店有47款,這一數(shù)字清晰地暴露了當(dāng)前審核機(jī)制的有效性問題,兩家平臺(tái)在這方面的表現(xiàn)存在明顯差距。
美國參議員Jon Ossoff等立法者公開批評(píng)兩家公司未能有效阻止此類應(yīng)用繞過初審流程,強(qiáng)調(diào)這些應(yīng)用通過AI算法將普通用戶圖片轉(zhuǎn)化為露骨內(nèi)容,給受害者帶來不可逆的心理傷害,包括隱私侵犯、名譽(yù)受損以及長期的精神壓力。這類應(yīng)用的核心操作是利用生成式AI模型對(duì)輸入圖像進(jìn)行像素級(jí)修改,移除衣物元素并生成虛假露骨內(nèi)容,背后的技術(shù)原理則是結(jié)合了訓(xùn)練數(shù)據(jù)中的人體特征模型與圖像生成算法。
目前兩家平臺(tái)的審核模式多依賴人工抽檢或關(guān)鍵詞過濾,很難應(yīng)對(duì)AI應(yīng)用的快速迭代和技術(shù)規(guī)避手段——部分應(yīng)用會(huì)用模糊的功能描述或隱藏核心代碼,以此繞過初審階段的人工檢查。為此,行業(yè)內(nèi)不少聲音呼吁引入AI驅(qū)動(dòng)的檢測(cè)工具,通過機(jī)器學(xué)習(xí)模型識(shí)別此類應(yīng)用的核心功能代碼、用戶評(píng)價(jià)里的敏感關(guān)鍵詞以及潛在的內(nèi)容生成邏輯,這樣才能更高效地阻止有害應(yīng)用死灰復(fù)燃。
歐盟數(shù)字服務(wù)法案(DSA)已于2024年全面生效,將非自愿深度偽造內(nèi)容納入重點(diǎn)監(jiān)管范疇,要求平臺(tái)承擔(dān)更多主動(dòng)審核責(zé)任;競(jìng)爭(zhēng)對(duì)手Meta近期更新了內(nèi)容審核政策,明確禁止AI生成的非自愿露骨內(nèi)容,還宣布投入10億美元用于AI審核技術(shù)研發(fā),包括訓(xùn)練能識(shí)別深度偽造圖像的模型——相比之下,蘋果與谷歌在該領(lǐng)域的技術(shù)投入及政策落地速度仍顯滯后。






快報(bào)