阿裡巴巴開源新一代通義千問模型Qwen3

4月29日,阿裡巴巴開源新一代通義千問模型Qwen3(簡稱千問3),參數量僅為DeepSeek-R1的1/3,成本大幅下降,性能全面超越R1、OpenAI-o1等全球頂尖模型。千問3是首個“混合推理模型”,“快思考”與“慢思考”集成進同一個模型,對簡單需求可低算力“秒回”答案,對復雜問題可多步驟“深度思考”,大大節省算力消耗。
千問3採用混合專家(MoE)架構,總參數量235B,激活僅需22B。千問3預訓練數據量達36T tokens,並在后訓練階段多輪強化學習,將非思考模式無縫整合到思考模型中。千問3在推理、指令遵循、工具調用、多語言能力等方面均大幅增強,即創下所有國產模型及全球開源模型的性能新高:在奧數水平的AIME25測評中,千問3斬獲81.5分,刷新開源紀錄﹔在考察代碼能力的LiveCodeBench評測中,千問3突破70分大關,表現甚至超過Grok3﹔在評估模型人類偏好對齊的ArenaHard測評中,千問3以95.6分超越OpenAI-o1及DeepSeek-R1。性能大幅提升的同時,千問3的部署成本還大幅下降,僅需4張H20即可部署千問3滿血版,顯存佔用僅為性能相近模型的三分之一。
千問3還提供了豐富的模型版本,包含2款30B、235B的MoE模型,以及0.6B、1.7B、4B、8B、14B、32B等6款密集模型,每款模型均斬獲同尺寸開源模型SOTA(最佳性能):千問3的30B參數MoE模型實現了10倍以上的模型性能杠杆提升,僅激活3B就能媲美上代Qwen2.5-32B模型性能﹔千問3的稠密模型性能繼續突破,甚至像 Qwen3-4B 這樣的小模型也能匹敵 Qwen2.5-72B-Instruct 的性能。
同時,所有千問3模型都是混合推理模型,API可按需設置“思考預算”(即預期最大深度思考的tokens數量),進行不同程度的思考,靈活滿足AI應用和不同場景對性能和成本的多樣需求。比如,4B模型是手機端的絕佳尺寸﹔8B可在電腦和汽車端側絲滑部署應用﹔32B最受企業大規模部署歡迎,有條件的開發者也可輕鬆上手。
千問3為即將到來的智能體Agent和大模型應用爆發提供了更好的支持。在評估模型Agent能力的BFCL評測中,千問3創下70.8的新高,超越Gemini2.5-Pro、OpenAI-o1等頂尖模型,將大幅降低Agent調用工具的門檻。同時,千問3原生支持MCP協議,並具備強大的工具調用(function calling)能力,結合封裝了工具調用模板和工具調用解析器的Qwen-Agent 框架,將大大降低編碼復雜性,實現高效的手機及電腦Agent操作等任務。
據了解,千問3系列模型依舊採用寬鬆的Apache2.0協議開源,並首次支持119多種語言,全球開發者、研究機構和企業均可免費在魔搭社區、HuggingFace等平台下載模型並商用,也可以通過阿裡雲百煉調用千問3的API服務。個人用戶可立即通過通義APP直接體驗千問3,夸克也即將全線接入千問3。
據悉,阿裡通義已開源200余個模型,全球下載量超3億次,千問衍生模型數超10萬個。

分享讓更多人看到
- 評論
- 關注