斯坦福某AI團隊抄襲、套殼清華系開源大模型,現(xiàn)已被實錘
鈦媒體App 6月3日消息,近日,美國斯坦福大學某AI團隊發(fā)布了一個名為Llama3V的SOTA開源多模態(tài)模型,號稱效果比肩GPT-4V、Gemini Ultra、Claude Opus,尺寸比GPT4-V小100倍,但訓練成本僅需500美元。網(wǎng)友質疑,該模型抄襲、套殼清華系AI公司面壁智能于5月中旬發(fā)布的8B多模態(tài)小模型MiniCPM-Llama3-V 2.5,兩個模型在模型架構與代碼上完全相同。面對質疑,Llama3V團隊稱,他們只是使用了 MiniCPM-Llama3-V 2.5的tokenizer(分詞器),并宣稱在 MiniCPM-Llama3-V 2.5 發(fā)布前就開始了這項工作。
不過,面壁智能現(xiàn)已下場實錘。面壁智能團隊測試發(fā)現(xiàn),Llama3-V大模型能識別清華簡,其訓練數(shù)據(jù)的采集和標注均由清華NLP實驗室和面壁智能團隊完成,相關數(shù)據(jù)尚未對外公開。而Llama3-V在識別清華簡的文字時,結果和MiniCPM-Llama3-V 2.5不僅在正確的地方一模一樣,在犯錯的地方也雷同。同時,兩個模型在清華簡上的高斯噪聲也同樣高度相似。此外,與MiniCPM-Llama3-V 2.5類似,Llama3-V也顯示出了很強的OCR能力,甚至包括中文。
目前,該斯坦福團隊成員已刪除他們在X上官宣模型的推文,并將該項目在Github和HuggingFace上的庫一并刪除。
本文內(nèi)容僅供參考,不構成投資建議,請謹慎對待。
根據(jù)《網(wǎng)絡安全法》實名制要求,請綁定手機號后發(fā)表評論