今天看啥  ›  专栏  ›  AIforResearch

Mixtral 正式官宣Mixtral-8x22B,推出模型详细介绍文档!

AIforResearch  · 公众号  ·  · 2024-04-18 21:35
以下是官网的正式介绍:Mixtral 8x22B 是我们最新的开放型号。它为人工智能社区的性能和效率设立了新标准。它是一种稀疏专家混合 (SMoE) 模型,仅使用 141B 个活动参数中的 39B 个,在其规模下提供了无与伦比的成本效率。Mixtral 8x22B 具有以下优点:1、精通英语、法语、意大利语、德语和西班牙语2、具有很强的数学和编码能力3、它本身就能够进行函数调用;加上 la Plateforme 上实施的受限输出模式,这使得应用程序开发和技术堆栈现代化能够大规模进行4、其64K 令牌上下文窗口允许从大型文档中精确调用信息真正的开源开放我们相信开放和广泛分布的力量可以促进人工智能领域的创新和协作。因此,我们在 Apache 2.0(最宽松的开源许可证)下发布 Mixtral 8x22B,允许任何人在任何地方不受限制地使用该模型。最佳效率我们构建的模型能够为各自的规模提 ………………………………

原文地址:访问原文地址
快照地址: 访问文章快照