千問3預(yù)訓(xùn)練數(shù)據(jù)量達36T ,并在后訓(xùn)練階段多輪強化學(xué)習(xí),將快思考模式和慢思考模式無縫整合,同時在推理、指令遵循、工具調(diào)用、多語言能力等方面均大幅增強,創(chuàng)下所有國產(chǎn)模型及全球開源模型的性能新高。

千問3共計八款模型,包含2款30B、235B的MoE模型,以及0.6B、1.7B、4B、8B、14B、32B等6款密集模型,每款模型均斬獲同尺寸開源模型SOTA(最佳性能)。

其中,千問3的30B參數(shù)MoE模型實現(xiàn)了10倍以上的模型性能杠桿提升,僅激活3B就能媲美上代Qwen2.5-32B模型性能;千問3的稠密模型性能繼續(xù)突破,一半的參數(shù)量可實現(xiàn)同樣的高性能,如32B版本的千問3模型可跨級超越Qwen2.5-72B性能。

4月是大模型集中發(fā)布的一月,OpenAI發(fā)布了GPT-4.1  o3、o4 mini系列模型,谷歌Gemini 2.5 Flash Preview混合推理模型上新,豆包也公布了1.5·深度思考模型,其他大模型廠商也開源或者更新了不少模型,業(yè)內(nèi)也傳出DeepSeek R2模型即將發(fā)布的消息,但目前大部分消息都是捕風(fēng)捉影。

不論DeepSeek R2發(fā)布與否,“先發(fā)制人”的千問3,先一步站在大模型“平民化”的真正起點上。 

國內(nèi)首個混合推理思考模型,增強 Agent 能力且支持MCP

千問3模型支持兩種思考模式:

所有千問3模型都是混合推理模型,這也使其成為國內(nèi)首個“混合推理模型”,“快思考”與“慢思考”集成進同一個模型,對簡單需求可低算力“秒回”答案,對復(fù)雜問題可多步驟“深度思考”,大大節(jié)省算力消耗。

API可按需設(shè)置“思考預(yù)算”(即預(yù)期最大深度思考的tokens數(shù)量),進行不同程度的思考,靈活滿足AI應(yīng)用和不同場景對性能和成本的多樣需求。比如,4B模型是手機端的絕佳尺寸;8B可在電腦和汽車端側(cè)絲滑部署應(yīng)用;32B最受企業(yè)大規(guī)模部署歡迎,有條件的開發(fā)者也可輕松上手。

在奧數(shù)水平的AIME25測評中,千問3斬獲81.5分,刷新開源紀(jì)錄;在考察代碼能力的LiveCodeBench評測中,千問3突破70分大關(guān),表現(xiàn)甚至超過Grok3;在評估模型人類偏好對齊的ArenaHard測評中,千問3以95.6分超越OpenAI-o1及DeepSeek-R1。

性能大幅提升的同時,千問3的部署成本還大幅下降,僅需4張H20即可部署千問3滿血版,顯存占用僅為性能相近模型的三分之一。

千問3模型還支持 119 種語言和方言。目前這些模型均在 Apache 2.0 許可下開源,現(xiàn)已在 Hugging Face、ModelScope 和 Kaggle 等平臺上開放使用。

阿里巴巴也推薦使用 SGLang 和 vLLM 等框架部署,而對于本地使用,Ollama、LMStudio、MLX、llama.cpp 和KTransformers 等工具也支持。

千問3也考慮了智能體Agent和大模型應(yīng)用落地。在評估模型Agent能力的BFCL評測中,千問3創(chuàng)下70.8的新高,超越Gemini2.5-Pro、OpenAI-o1等頂尖模型,將大幅降低Agent調(diào)用工具的門檻。

同時,千問3原生支持MCP協(xié)議,并具備強大的工具調(diào)用(function calling)能力,結(jié)合封裝了工具調(diào)用模板和工具調(diào)用解析器的Qwen-Agent 框架,將大大降低編碼復(fù)雜性,實現(xiàn)高效的手機及電腦Agent操作等任務(wù)。

36萬億token預(yù)訓(xùn)練,四階段后訓(xùn)練

在預(yù)訓(xùn)練方面,Qwen3 的數(shù)據(jù)集相比 Qwen2.5 有了顯著擴展。Qwen2.5是在 18 萬億個 token 上進行預(yù)訓(xùn)練的,而Qwen3 使用的數(shù)據(jù)量幾乎是其兩倍,達到了約 36 萬億個 token。

為了構(gòu)建這個龐大的數(shù)據(jù)集,千問團隊不僅從網(wǎng)絡(luò)上收集數(shù)據(jù),還從 PDF 文檔中提取信息。例如使用 Qwen2.5-VL 從這些文檔中提取文本,并用 Qwen2.5 改進提取內(nèi)容的質(zhì)量。

為了增加數(shù)學(xué)和代碼數(shù)據(jù)的數(shù)量,千問團隊利用 Qwen2.5-Math 和 Qwen2.5-Coder 這兩個數(shù)學(xué)和代碼領(lǐng)域的專家模型合成數(shù)據(jù),合成了包括教科書、問答對以及代碼片段等多種形式的數(shù)據(jù)。

預(yù)訓(xùn)練過程分為三個階段。在第一階段(S1),模型在超過 30 萬億個 token 上進行了預(yù)訓(xùn)練,上下文長度為 4K token。這一階段為模型提供了基本的語言技能和通用知識。

在第二階段(S2),千問團隊通過增加知識密集型數(shù)據(jù)(如 STEM、編程和推理任務(wù))的比例來改進數(shù)據(jù)集,隨后模型又在額外的 5 萬億個 token 上進行了預(yù)訓(xùn)練。

在最后階段,千問團隊使用高質(zhì)量的長上下文數(shù)據(jù)將上下文長度擴展到 32K token,確保模型能夠有效地處理更長的輸入。

由于模型架構(gòu)的改進、訓(xùn)練數(shù)據(jù)的增加以及更有效的訓(xùn)練方法,Qwen3 Dense 基礎(chǔ)模型的整體性能與參數(shù)更多的Qwen2.5基礎(chǔ)模型相當(dāng)。

例如,Qwen3-1.7B/4B/8B/14B/32B-Base 分別與 Qwen2.5-3B/7B/14B/32B/72B-Base 表現(xiàn)相當(dāng)。特別是在 STEM、編碼和推理等領(lǐng)域,Qwen3 Dense 基礎(chǔ)模型的表現(xiàn)甚至超過了更大規(guī)模的 Qwen2.5 模型。

對于 Qwen3 MoE 基礎(chǔ)模型,它們在僅使用 10% 激活參數(shù)的情況下達到了與 Qwen2.5 Dense 基礎(chǔ)模型相似的性能。這帶來了訓(xùn)練和推理成本的顯著節(jié)省。

后訓(xùn)練方面,為了開發(fā)能夠同時具備思考推理和快速響應(yīng)能力的混合模型,千問團隊實施了一個四階段的訓(xùn)練流程。該流程包括:(1)長思維鏈冷啟動,(2)長思維鏈強化學(xué)習(xí),(3)思維模式融合,以及(4)通用強化學(xué)習(xí)。

在第一階段,先使用多樣的的長思維鏈數(shù)據(jù)對模型進行了微調(diào),涵蓋了數(shù)學(xué)、代碼、邏輯推理和 STEM 問題等多種任務(wù)和領(lǐng)域。這一過程旨在為模型配備基本的推理能力。

第二階段的重點是大規(guī)模強化學(xué)習(xí),利用基于規(guī)則的獎勵來增強模型的探索和鉆研能力。

在第三階段,在一份包括長思維鏈數(shù)據(jù)和常用的指令微調(diào)數(shù)據(jù)的組合數(shù)據(jù)上對模型進行微調(diào),將非思考模式整合到思考模型中,確保了推理和快速響應(yīng)能力的無縫結(jié)合。

在第四階段,在包括指令遵循、格式遵循和 Agent 能力等在內(nèi)的 20 多個通用領(lǐng)域的任務(wù)上應(yīng)用了強化學(xué)習(xí),以進一步增強模型的通用能力并糾正不良行為。

目前個人用戶可立即通過通義APP直接體驗千問3,夸克也即將全線接入千問3。阿里通義已開源200余個模型,全球下載量超3億次,千問衍生模型數(shù)超10萬個,已超越美國Llama,成為全球第一開源模型。(本文首發(fā)于鈦媒體APP,作者 | 張帥,編輯 | 蓋虹達)

轉(zhuǎn)載請注明出處、作者和本文鏈接。
聲明:文章內(nèi)容僅供參考、交流、學(xué)習(xí)、不構(gòu)成投資建議。
想和千萬鈦媒體用戶分享你的新奇觀點和發(fā)現(xiàn),點擊這里投稿 。創(chuàng)業(yè)或融資尋求報道,點擊這里。

敬原創(chuàng),有鈦度,得贊賞

贊賞支持
發(fā)表評論
0 / 300

根據(jù)《網(wǎng)絡(luò)安全法》實名制要求,請綁定手機號后發(fā)表評論

登錄后輸入評論內(nèi)容
  • 千問衍生模型數(shù)量斷層領(lǐng)先,太霸氣了!

    回復(fù) 4月29日 · via h5
  • 開源到Kaggle這些平臺,開發(fā)者有福了!

    回復(fù) 4月29日 · via h5
  • 快思考、慢思考,這不就是給模型裝了“雙腦”?

    回復(fù) 4月29日 · via android
  • 夸克要接入千問3,以后搜索直接開掛!

    回復(fù) 4月29日 · via android
  • 用不同框架部署,對開發(fā)者太友好了!

    回復(fù) 4月29日 · via android
  • 開源Apache 2.0許可,不怕被卡脖子了!

    回復(fù) 4月29日 · via h5
  • 阿里這開源速度,把美國Llama都甩在后面了!

    回復(fù) 4月29日 · via h5
  • 小參數(shù)大能量,阿里技術(shù)實力真牛!

    回復(fù) 4月29日 · via pc
  • 千問3這性能,以后AI競賽沒懸念了吧?

    回復(fù) 4月29日 · via iphone
  • 超越DeepSeek和OpenAI,國貨模型站起來了!

    回復(fù) 4月29日 · via iphone
更多評論

快報

更多

2025-12-22 23:05

農(nóng)業(yè)農(nóng)村部高質(zhì)量推進高標(biāo)準(zhǔn)農(nóng)田建設(shè)

2025-12-22 23:03

中國量子糾錯研究取得新進展,量子計算機走向?qū)嵱糜纸徊?/p>

2025-12-22 23:01

大商所、鄭商所夜盤收盤,PVC漲超2%

2025-12-22 23:01

德銀:對優(yōu)信予以“買入”評級,定12個月目標(biāo)價為4.5美元

2025-12-22 22:52

標(biāo)普500材料板塊觸及三個月高點,最新漲幅0.7%

2025-12-22 22:45

特斯拉股價創(chuàng)歷史新高,最新漲幅2.70%

2025-12-22 22:44

美提高非法移民“自愿離境”補貼,敦促離境

2025-12-22 22:42

龍迅股份向港交所提交上市申請

2025-12-22 22:42

同大股份:第一大股東同大集團擬轉(zhuǎn)讓8.48%股份給濟南寶鑫

2025-12-22 22:40

美股加密貨幣概念股開盤延續(xù)上漲,Hut 8漲近9%

2025-12-22 22:38

同大股份:控股股東擬變更為青島卓岳銘梁,實控人擬變更為白一波

2025-12-22 22:36

機構(gòu)預(yù)計明年金價還要漲

2025-12-22 22:35

納斯達克金龍中國指數(shù)盤初漲約0.4%

2025-12-22 22:34

費城半導(dǎo)體指數(shù)開盤走高,漲1.5%

2025-12-22 22:31

美股開盤:三大指數(shù)集體高開,第一聯(lián)合漲超25%

2025-12-22 22:13

北京海致科技集團股份有限公司遞表港交所

2025-12-22 22:12

商務(wù)部新聞發(fā)言人就安世半導(dǎo)體問題答記者問

2025-12-22 22:09

國泰航空預(yù)計十年來首次實現(xiàn)連續(xù)年度盈利增長

2025-12-22 22:07

吉利汽車:極氪私有化交易完成

2025-12-22 22:04

微軟CEO納德拉向負責(zé)人施壓,要求加快Copilot改進

30

掃描下載App