主要观点总结
Qwen3正式发布并开源8款混合推理模型,包括MoE模型和Dense模型。这些模型在代码、数学、通用能力等基准测试中表现出竞争力。Qwen3支持两种思考模式,多语言能力,增强的Agent能力。预训练、后训练流程开始使用Qwen3的方式,以及高级用法和Agent示例。Qwen3的发布是通往通用人工智能的重要里程碑,未来计划从多个维度提升模型。
关键观点总结
关键观点1: Qwen3正式发布并开源8款混合推理模型
包括MoE模型和Dense模型,这些模型在基准测试中表现出竞争力。
关键观点2: Qwen3支持两种思考模式
包括思考模式和非思考模式,用户可以根据任务需求进行灵活控制。
关键观点3: Qwen3具有多语言能力
支持119种语言和方言,为国际应用开辟了新的可能性。
关键观点4: Qwen3增强了Agent能力
通过优化模型架构和训练方法,实现更高层次的智能,并无缝集成了思考模式与非思考模式。
关键观点5: Qwen3的预训练和后训练流程
使用大规模的预训练数据,结合强化学习,提高了模型的长周期推理能力。
关键观点6: Qwen3是通往通用人工智能的重要里程碑
通过扩大预训练和强化学习的规模,Qwen3代表了通往通用人工智能的重要进展。
文章预览
刚刚,Qwen3正式发布并全部开源8款「混合推理模型」。 此次开源包括 两款MoE模型 :Qwen3-235B-A22B(2350多亿总参数、 220多亿激活参),以及Qwen3-30B-A3B(300亿总参数、30亿激活参数);以及 六个Dense模型 :Qwen3-32B、Qwen3-14B、Qwen3-8B、Qwen3-4B、Qwen3-1.7B和Qwen3-0.6B。 旗舰模型Qwen3-235B-A22B 在代码、数学、通用能力等基准测试中,与一众顶级模型相比,表现出极具竞争力的结果。 小型MoE模型Qwen3-30B-A3B的激活参数数量是QwQ-32B10% ,表现更胜一筹, Qwen3-4B 这样的小模型也能匹敌 Qwen2.5-72B-Instruct 的性能。 经过后训练的模型,例如 Qwen3-30B-A3B,以及它们的预训练基座模型(如 Qwen3-30B-A3B-Base),现已在 Hugging Face、ModelScope 和 Kaggle 等平台上开放使用。对于部署,我们推荐使用 SGLang 和 vLLM 等框架;而对于本地使用,像 Ollama、LMStudio、MLX、llama.cpp 和 KTransformers 这样的工
………………………………