今天看啥  ›  专栏  ›  亲爱的数据

尺寸差了一个量级,如何较量?DeepSeek R1与阿里QwQ-32B

亲爱的数据  · 公众号  ·  · 2025-03-07 12:00
    

文章预览

原创:亲爱的数据 2025 年 3 月 6 日, 阿里通义千问团队推出推理模型 QwQ-32B 大语言模型。 看似普通的一则新闻, 发布了一个模型这么件事。 阿里尚未发布详细的技术报告来解释   QwQ 是如何开发的,甚至新闻官网只有 742 个字。 《 QwQ-32B : 拥抱强化学习的力量 》 该怎么理解呢? 我的理解, QwQ-32B 是一款稠密(又称密集)推理模型。 虽然只有一句话,但是信息量很大。 想读懂的话,要很多 “知识储备”, 什么是 MoE(混合专家模型) ? 什么是稠密模型? 什么是推理模型? 模型参数规模怎么对比? 背后隐藏的不少问题都可展开聊, 不如,聊聊有哪些结论? 第一点, QWQ 模型有一个系列, 阿里在上一版 的基础上, 用了 R1也 同样用了的强化学习技术。 好消息是出效果了,不出效果不会放出来。 毕竟这个是开源模型, 只有闭源模型才愿意买广 ………………………………

原文地址:访问原文地址
快照地址: 访问文章快照
总结与预览地址:访问总结与预览