今天看啥  ›  专栏  ›  机器学习研究组订阅

刚刚,新版DeepSeek-R1正式开源!直逼o3编程强到离谱,一手实测来了

机器学习研究组订阅  · 公众号  · AI  · 2025-05-29 19:57
    

文章预览

临近端午假期,DeepSeek果然又开始搞事。 就在今天凌晨,新版DeepSeek-R1正式开源了! DeepSeek-R1-0528模型权重已上传到HuggingFace,不过模型卡暂未更新。 项目地址:https://huggingface.co/deepseek-ai/DeepSeek-R1-0528/tree/main 时隔4个月,DeepSeek-R1完成了超进化,编码能力强到离谱,而且思考时间更长了。 据称,新模型基于DeepSeek-V3-0324训练(参数为660B)。 经典物理模拟测试中,DeepSeek-R1新旧版本的对比 在LiveCodeBench基准上,DeepSeek-R1-0528性能几乎与o3-mini(High)和o4-mini(Medium)实力相当,一举超越了Gemini 2.5 Flash。 有网友称赞,DeepSeek-R1能够像o3一样纠正思维链,并且像Claude一样创造性进行世界构建。 可以说,这是属于开源模型的巨大胜利! 不用R2,直接对标SOTA 此次,DeepSeek-R1-0528更新核心亮点,网友做了一个浓缩版的总结: 能像谷歌模型一样深度推理 文本生成优化: ………………………………

原文地址:访问原文地址
快照地址: 访问文章快照
总结与预览地址:访问总结与预览