不過,Wiz對DeepSeek監(jiān)測并發(fā)現(xiàn)其數(shù)據(jù)庫存在的敏感數(shù)據(jù)泄露。“DeepLeak”,一個屬于DeepSeek的可公開訪問的ClickHouse數(shù)據(jù)庫,它暴露了高度敏感的信息,包括用戶的聊天記錄、密鑰和敏感的內(nèi)部信息,以及超過一百萬行的日志流,并允許完全控制數(shù)據(jù)庫操作。
除此之外,Wiz還報告,過去12個月中,已經(jīng)出現(xiàn)了諸多人工智能應(yīng)用帶來的網(wǎng)絡(luò)安全風(fēng)險。
英偉達(dá)AI高危漏洞,去年10月被披露的英偉達(dá)容器工具包(NVIDIA Container Toolkit)漏洞,可被攻擊者利用實現(xiàn)容器逃逸,從而獲得對AI主機系統(tǒng)的完全訪問權(quán)限,執(zhí)行命令或竊取AI系統(tǒng)的敏感數(shù)據(jù)。超過35%的云環(huán)境面臨威脅,對大量AI應(yīng)用程序和環(huán)境帶來了嚴(yán)重威脅。
“SAPwned”,于去年7月被披露的SAP AI Core漏洞,包括能被用于繞過網(wǎng)絡(luò)限制、泄露AWS憑證(Token)、暴露用戶的文件、入侵Docker存儲庫及組件服務(wù)器、暴露Google的訪問憑證及用戶帳密數(shù)據(jù)。這些漏洞可能允許惡意攻擊者接管服務(wù)并訪問客戶數(shù)據(jù)。
“Probllama”,開源AI基礎(chǔ)設(shè)施項目Ollama中一個易于利用的遠(yuǎn)程代碼執(zhí)行漏洞。Ollama是用于在Windows、Linux和macOS設(shè)備上進(jìn)行本地封裝、部署以及運行大語言模型的服務(wù)。
Hugging Face赫赫有名,但依然存在可能允許黑客通過惡意模型進(jìn)行跨租戶攻擊的情況。同樣,另一款開源機器學(xué)習(xí)平臺Replicate也被發(fā)現(xiàn)被惡意模型攻擊的弱點。如果沒有適當(dāng)保護,將對平臺客戶數(shù)據(jù)造成重大風(fēng)險。
上述這些漏洞由Wiz安全研究團隊發(fā)現(xiàn),并進(jìn)行了報告。相關(guān)漏洞主體單位先后確認(rèn)了其漏洞,并進(jìn)行了安全修復(fù)。
為此,報告指出,盡管人工智能軟件帶來了巨大機遇,但也帶來了嚴(yán)重的風(fēng)險,從早期關(guān)注的研發(fā)和采用,也必然會過渡到標(biāo)準(zhǔn)和治理的問題上。
以下為鈦媒體摘錄的此次報告的五個關(guān)鍵要點。
![]()
1月份,在全球范圍內(nèi)屬于最新參與者的DeepSeek,用戶使用量翻了一番。
1月20日,DeepSeek-R1發(fā)布,僅在HuggingFace上線以來就達(dá)到13萬次的下載量。其中,采用AI自托管的企業(yè)組織中就有7%正在使用DeepSeek開發(fā)的系列模型,其中又約有4%使用DeepSeek-R1模型。憑借其成本效益和快速的創(chuàng)新步伐,DeepSeek迅速獲得了廣泛關(guān)注。
報告還指出,目前更多的企業(yè)組織使用的并非官方調(diào)用接口使用模型。
![]()
上述圖表列出了超過20款的大模型,但研究發(fā)現(xiàn),超過一半的組織仍會調(diào)用OpenAI的接口。
首先,基于本地或私有云自托管AI模型的企業(yè)組織比例上升到75%,去年這一數(shù)字只有42%,其增長的主要原因在于第三方軟件中AI的采用增加(包括用于特定任務(wù)的AI和機器學(xué)習(xí)系統(tǒng))。
此外,67%基于云環(huán)境調(diào)用的是OpenAI或Azure OpenAI接口,高于去年的53%。排名前五的還有Pytorch(50%)、ONNX Runtime(46%)、Hugging Face Transformers(45%)和Tiktoken(43%)。
![]()
開源與閉源AI模型并非對立。
最近火熱的DeepSeek-R1,阿里Qwen等屬于開源模型,OpenAI在GPT-3及以后則采用了閉源模式。盡管OpenAI和Anthropic屬于閉源模型模型提供商,但其也會有一定開源動作,如OpenAI的Tiktoken是一款開源快速分詞工具。同樣,開源工具鏈Langchain也會提供付費平臺。Vertex AI可以讓用戶在各個開源閉源模型間進(jìn)行選擇。
報告預(yù)測,開源模型的應(yīng)用可能會呈爆炸式增長,并且會具有一定持久力。比如另一款開源模型Meta的Llama,其使用率已經(jīng)從18%增長到了35%。
![]()
基于API與自托管的AI模型,是企業(yè)采用大模型的兩種常見方式,但后者相對來講在模型定制和隱私性方面更有優(yōu)勢。
與去年相比,自托管的AI模型采用率有所提高。在選擇這一方式的企業(yè)組織中,最受歡迎的則是BERT。BERT于2018年由谷歌提出,奠定了NLP領(lǐng)域預(yù)訓(xùn)練大模型的基調(diào)。直到目前,在最流行的模型排行中,BERT仍在穩(wěn)固其主導(dǎo)地位,從49%增長到74%,值得關(guān)注的是,Mistral AI的Le Chat,阿里Qwen2成為新的競爭者。
![]()
-托管AI是由第三方提供商提供的托管式端到端服務(wù),使企業(yè)能夠高效地開發(fā)、部署和管理人工智能/機器學(xué)習(xí)解決方案。
使用托管AI服務(wù)的云環(huán)境同比去年增長了4%個百分點。目前,超過85%的組織正在使用托管或自托管AI服務(wù)/工具。過去一年,使用托管AI的企業(yè)組織,從70%上升到74%,其實驗或研發(fā)AI的熱情持續(xù)且穩(wěn)定。
Wiz認(rèn)為,DeepSeek有望帶來重大變革,并將推動創(chuàng)造力、競爭、速度及諸多新機遇的涌現(xiàn)。然而,隨著其應(yīng)用的日益廣泛,組織也面臨著治理、安全及成本管理等多重挑戰(zhàn)。AI工具的迅速引入往往缺乏統(tǒng)一標(biāo)準(zhǔn),導(dǎo)致可見性、風(fēng)險管理和責(zé)任使用等方面的問題凸顯。
為此,Wiz指出,創(chuàng)新不應(yīng)以犧牲風(fēng)險為代價,在DeepSeek及其他AI供應(yīng)商中發(fā)現(xiàn)的重大漏洞,凸顯了對強化AI安全性的迫切需求。隨著自托管AI的加速采用,企業(yè)組織必須將網(wǎng)絡(luò)安全工作擺在更優(yōu)先位置,以應(yīng)對風(fēng)險,特別是數(shù)據(jù)泄露和云環(huán)境中未經(jīng)授權(quán)的AI使用風(fēng)險。(本文首發(fā)于鈦媒體APP,作者 | 楊麗,編輯 | 蓋虹達(dá))
快報
根據(jù)《網(wǎng)絡(luò)安全法》實名制要求,請綁定手機號后發(fā)表評論