今天看啥  ›  专栏  ›  InfoQ

甩开GPU,全员中国人操刀,微软开源“DeepSeek级”BitNet 2B模型:速度翻倍,内存仅为...

InfoQ  · 公众号  · 科技媒体  · 2025-04-17 19:02
    

文章预览

整理 | 华卫、核子可乐   近日,微软的研究人员声称,他们已经开发出了迄今为止规模最大的原生 1-bit 人工智能模型。该模型名为 BitNet b1.58 2B4T,仅使用 0.4GB(约 409.6MB)内存,可以在包括苹果 M2 芯片在内的 CPU 上运行。评估结果显示,该模型在各种任务中与同等规模的领先开源权重全精度大语言模型表现近乎相当,同时在计算效率方面具有显著优势,包括大幅减少内存占用、能耗以及解码延迟。 目前,该模型 100% 开源,可供在 MIT 许可协议下公开使用。在 Hugging Face 上,微软还提供了 BitNet b1.58 2B4T 多个版本的模型权重,包括经过打包的 1.58 bit 权重、BF16 格式的主权重和 GGUF 格式的模型权重。 模型权重: https://huggingface.co/microsoft/bitnet-b1.58-2B-4T 试用链接: https://bitnet-demo.azurewebsites.net/ 有网友评价该模型道,“如果它真的匹配全精度模型性能,那 ………………………………

原文地址:访问原文地址
快照地址: 访问文章快照
总结与预览地址:访问总结与预览