比肩DeepSeek!阿里开源推理大模型,登顶全球第一!

3月7日消息,阿里巴巴在昨天凌晨,开源了全新的推理大模型通义千问QwQ-32B,通过大规模强化学习,QwQ-32B在数学、代码及通用能力上实现质的飞跃,整体性能足以比肩DeepSeek-R1,目前QwQ-32B已经成功登顶开源社区Hugging Face大模型榜单!

根据阿里官方的实际测试数据,QwQ-32B在AIME24得分79.5(DeepSeek-R1为79.8),远超OpenAI o1-mini的63.6分,在LiveCodeBench得分63.4(DeepSeek-R1为65.9)比同规模模型都要强,在LiveBench测试中以73.1分超过DeepSeek-R1的71.6分,QwQ-32B的综合性能甚至比R1还要强!

QwQ-32B后面那个32B指的是参数规模达到320亿,阿里直接用320亿参数规模的千问,追上了6710亿参数规模的R1(激活参数370亿),而且QwQ-32B还实现了高性能推理模型在消费级显卡上的本地部署,模型体积经Q4量化后压缩至不足20GB,可直接在24GB显存的RTX 3090/4090显卡上全精度运行。

根据阿里千问的说法,QwQ-32B是在Qwen2.5-Plus基础加上推理深度思考功能,性能提升主要是来源于大规模强化学习(昨天强化学习之父Sutton刚刚拿下计算机届最高奖图灵奖),阿里的思路和DeepSeek完全一样,希望降低企业与个人用户的使用门槛和成本,单次推理成本仅0.25美元。

QwQ-32B的模型权重、训练代码及工具链已经完全公开,阿里还提供了中文技术文档,QwQ-32B已经成为继DeepSeek后登顶全球开源社区榜首的又一个国产大模型!另外,阿里最近的大动作其实一点也不比DeepSeek少,之前与DeepSeek-R1同期发布的QWen2.5-Max就已经很强了,上周还开源了最新的视频生成模型Wan 2.1,未来三年阿里还将在AI领域投资3800亿美元,用于建设阿里云和AI硬件基础设施!

更多游戏资讯请关注:电玩帮游戏资讯专区

电玩帮图文攻略 www.vgover.com