騰訊發(fā)布開源MoE大語言模型Hunyuan-large,總參數(shù)398B為業(yè)內(nèi)最大
鈦媒體App 11月5日消息,騰訊發(fā)布開源MoE大語言模型Hunyuan-large,總參數(shù)398B為業(yè)內(nèi)最大,激活參數(shù)量52B。公開測評結(jié)果顯示,騰訊混元Large在CMMLU、MMLU、CEval、MATH等多學科綜合評測集以及中英文NLP任務、代碼和數(shù)學等9大維度全面領先,超過Llama3.1、Mixtral等一流的開源大模型。據(jù)了解,該模型在技術創(chuàng)新上可實現(xiàn)高質(zhì)量合成數(shù)據(jù),通過使用合成數(shù)據(jù)增強訓練,有效應對自然數(shù)據(jù)的不足。在上下文處理能力方面,預訓練模型支持高達256K的文本序列,顯著增強了處理長上下文任務的能力。
同時,騰訊混元宣布,為填補行業(yè)真實長文評測集不足,騰訊混元即將開源企鵝卷軸評測集助力業(yè)界應用研究。自研企鵝卷軸(PenguinScrolls)基于公開金融、法律、學術論文等多種自然長文本,長度范圍達1K-128K,覆蓋各種深度閱讀理解、長文推理任務。
本文內(nèi)容僅供參考,不構成投資建議,請謹慎對待。
根據(jù)《網(wǎng)絡安全法》實名制要求,請綁定手機號后發(fā)表評論