机器之心报道编辑:泽南、陈萍「太狂野了」。这是迄今为止最强大的开源大语言模型,超越了 Llama 2、Mistral 和马斯克刚刚开源的 Grok-1。本周三,大数据人工智能公司 Databricks 开源了通用大模型 DBRX,这是一款拥有 1320 亿参数的混合专家模型(MoE)。DBRX 的基础(DBRX Base)和微调(DBRX Instruct)版本已经在 GitHub 和 Hugging Face 上发布,可用于研究和商业用途。人们可以自行在公共、自定义或其他专有数据上运行和调整它们,也可以通过 API 的形式使用。基础版:https://huggingface.co/databricks/dbrx-base微调版:https://huggingface.co/databricks/dbrx-instructGitHub 链接:https://github.com/databricks/dbrxDBRX 在语言理解、编程、数学和逻辑等方面轻松击败了目前业内领先的开源大模型,如 LLaMA2-70B、Mixtral 和 Grok-1。DBRX 在语言理解(MMLU)、编程(HumanEval)和数学(GSM8K)基准上均优
………………………………