更便宜、更好、更快、更强| 米斯特拉尔人工智能

Mixtral 8x22B 是我们最新的开放型号。 它为人工智能社区的性能和效率设立了新标准。 它是一种稀疏专家混合 (SMoE) 模型,仅使用 141B 个活动参数中的 39B 个,在其规模下提供了无与伦比的成本效率。 Mixtral 8x22B 具有以下优点: 这是 精通英语、法语、意大利语、德语和西班牙语 具有很强的数学和编码能力 它本身就能够进行函数调用; 加上 la Plateforme 上实施的受限输出模式,这使得应用程序开发和技术堆栈现代化能够大规模进行 它是 64K 令牌上下文窗口 允许从大型文档中调用精确的信息 真正开放 我们相信开放和广泛分布的力量可以促进人工智能领域的创新和协作。 因此,我们在 Apache 2.0(最宽松的开源许可证)下发布 Mixtral 8x22B,允许任何人在任何地方不受限制地使用该模型。 最佳效率 我们构建的模型提供 各自尺寸无与伦比的成本效率,在社区提供的模型中提供最佳的性价比。 Mixtral 8x22B 是我们开放式型号系列的自然延续。 其稀疏激活模式使其比任何密集的 70B 模型更快,同时比任何其他开放权重模型(在宽松或限制性许可下分发)更强大。 基本模型的可用性使其成为微调用例的绝佳基础。 图 1:性能衡量 (MMLU) 与推理预算权衡(活动参数数量)。 与其他开放型号相比,Mistral 7B、Mixtral 8x7B 和 Mixtral 8x22B 均属于高效型号系列。 无与伦比的开放性能 […]

Mistral AI 模型将在 Amazon Bedrock 上提供

亚马逊基岩 已经宣布将添加 米斯特拉尔人工智能 模型添加到其产品线中,为客户提供更多选择来满足他们的生成人工智能 (AI) 需求。 Amazon Bedrock 在周五(2 月 23 日)的一份声明中表示,人工智能初创公司 Mistral AI 将很快将其基础模型 (FM) 引入 Amazon Bedrock 现有的 FM 名册中 新闻稿。 米斯特拉尔 8x7B 和米斯特拉尔 7B 楷模 据新闻稿称,Mistral AI 的产品旨在在文本摘要、结构化、问答和代码完成等任务中表现出色。 该新闻稿称,这些模型对文本结构和体系结构有深入的了解,使它们能够从冗长的文章中提取关键思想。 根据该版本,它们还可以有效地组织信息,在问答任务中提供类似人类的性能,并执行与代码相关的任务。 据新闻稿称,它们的多功能性使得 Mistral AI 的模型对于自动化和扩展知识共享流程非常有价值。 新闻稿称:“没有一个模型能够针对每个用例进行优化,为了释放生成式人工智能的价值,客户需要访问各种模型,以根据他们的需求发现最有效的模型。” “这就是为什么 Amazon Bedrock 可以轻松访问来自领先 AI 公司的大型语言模型 (LLM) 和其他 FM,包括来自 AI21 Labs、Anthropic、Cohere、Meta、Stability AI、Amazon 的模型,以及即将推出的 Mistral AI。” 亚马逊基岩原为 宣布 […]