今天看啥  ›  专栏  ›  机器之心

开源大模型王座再易主,1320亿参数DBRX上线,基础、微调模型都有

机器之心  · 公众号  · AI  · 2024-03-28 13:01
机器之心报道编辑:泽南、陈萍「太狂野了」。这是迄今为止最强大的开源大语言模型,超越了 Llama 2、Mistral 和马斯克刚刚开源的 Grok-1。本周三,大数据人工智能公司 Databricks 开源了通用大模型 DBRX,这是一款拥有 1320 亿参数的混合专家模型(MoE)。DBRX 的基础(DBRX Base)和微调(DBRX Instruct)版本已经在 GitHub 和 Hugging Face 上发布,可用于研究和商业用途。人们可以自行在公共、自定义或其他专有数据上运行和调整它们,也可以通过 API 的形式使用。基础版:https://huggingface.co/databricks/dbrx-base微调版:https://huggingface.co/databricks/dbrx-instructGitHub 链接:https://github.com/databricks/dbrxDBRX 在语言理解、编程、数学和逻辑等方面轻松击败了目前业内领先的开源大模型,如 LLaMA2-70B、Mixtral 和 Grok-1。DBRX 在语言理解(MMLU)、编程(HumanEval)和数学(GSM8K)基准上均优 ………………………………

原文地址:访问原文地址
快照地址: 访问文章快照