谷歌推出壓縮算法TurboQuant,宣稱實現(xiàn)約6倍內(nèi)存節(jié)省
鈦媒體App 3月26日消息,谷歌近日推出了一種可能降低人工智能系統(tǒng)內(nèi)存需求的壓縮算法TurboQuant。根據(jù)谷歌介紹,TurboQuant壓縮技術旨在降低大語言模型和向量搜索引擎的內(nèi)存占用。該算法主要針對AI系統(tǒng)中用于存儲高頻訪問信息的鍵值緩存(key-value cache)瓶頸問題。隨著上下文窗口變大,這些緩存正成為主要的內(nèi)存瓶頸。TurboQuant可在無需重新訓練或微調(diào)模型的情況下,將鍵值緩存壓縮至3bit精度,同時基本保持模型準確率不受影響。對包括Gemma、Mistral等開源模型的測試顯示,該技術可實現(xiàn)約6倍的鍵值緩存內(nèi)存壓縮效果。此外,在英偉達H100加速器上的測試結果顯示,與未量化的鍵向量相比,該算法最高可實現(xiàn)約8倍性能提升。研究人員也表示,這項技術的應用不局限于AI模型,還包括支撐大規(guī)模搜索引擎的向量檢索能力。谷歌計劃于4月的國際學習表征會議(ICLR 2026)上展示TurboQuant技術。(廣角觀察)
本文內(nèi)容僅供參考,不構成投資建議,請謹慎對待。
根據(jù)《網(wǎng)絡安全法》實名制要求,請綁定手機號后發(fā)表評論