‘Mistral Large 2: 大型科技公司的大卫与巨人’

Mistral AI 最新模型 Mistral Large 2(ML2)据称与 OpenAI、Meta 和 Anthropic 等行业领袖的大型模型竞争,尽管其规模仅为它们的一小部分。

此次发布的时机值得注意,恰逢 Meta 推出其庞大的 4050 亿参数的 Llama 3.1 模型。ML2 和 Llama 3 都具备令人印象深刻的能力,包括 128,000 个令牌的上下文窗口,以增强“记忆”并支持多种语言。

Mistral AI 一直通过关注语言多样性来区分自己,ML2 继续这一传统。该模型支持“数十种”语言和超过 80 种编程语言,使其成为全球开发者和企业的多功能工具。

根据 Mistral 的基准测试,ML2 在各种语言、编码和数学测试中与顶级模型如 OpenAI 的 GPT-4o、Anthropic 的 Claude 3.5 Sonnet 和 Meta 的 Llama 3.1 405B 竞争表现良好。

在广泛认可的“大规模多任务语言理解”(MMLU)基准测试中,ML2 的得分为 84%。虽然略低于其竞争对手(GPT-4o 为 88.7%,Claude 3.5 Sonnet 为 88.3%,Llama 3.1 405B 为 88.6%),但值得注意的是,估计人类领域专家在此测试中的得分约为 89.8%。

效率:关键优势

ML2 的独特之处在于其能够以显著少于竞争对手的资源实现高性能。ML2 拥有 1230 亿个参数,规模不到 Meta 最大模型的三分之一,约为 GPT-4 的十四分之一。这种效率对部署和商业应用具有重大影响。

在完全 16 位精度下,ML2 需要大约 246GB 的内存。虽然这对于单个 GPU 来说仍然太大,但可以轻松部署在具有四到八个 GPU 的服务器上,而无需进行量化——这是较大模型如 GPT-4 或 Llama 3.1 405B 不一定能实现的壮举。

Mistral 强调,ML2 的小型化意味着更高的吞吐量,因为 LLM 的性能在很大程度上取决于内存带宽。从实际角度来看,这意味着 ML2 可以在相同硬件上比更大模型生成更快的响应。

应对关键挑战

Mistral 优先解决幻觉问题——这是 AI 模型生成令人信服但不准确的信息的常见问题。该公司声称 ML2 已经过微调,使其在响应时更加“谨慎和明智”,并更好地识别何时缺乏足够的信息来回答查询。

此外,ML2 旨在在遵循复杂指令方面表现出色,尤其是在较长的对话中。这种在提示跟随能力上的改进可能使该模型在各种应用中更加多功能和用户友好。

为了回应实际商业关注,Mistral 已优化 ML2,在适当情况下生成简洁的响应。虽然冗长的输出可能导致更高的基准得分,但它们往往会导致计算时间和运营成本的增加——这一考虑可能使 ML2 在商业使用中更具吸引力。

许可和可用性

虽然 ML2 在流行的代码库如 Hugging Face 上免费提供,但其许可条款比 Mistral 的一些 之前的产品 更为严格。

与用于 Mistral-NeMo-12B 模型的开源 Apache 2 许可证不同,ML2 采用 Mistral 研究许可证 发布。这允许非商业和研究使用,但对于商业应用需要单独的商业许可证。

随着 AI 竞争的加剧,Mistral 的 ML2 代表了在权力、效率和实用性之间取得平衡的重要一步。它是否能真正挑战科技巨头的主导地位还有待观察,但其发布无疑是大型语言模型领域的一个令人兴奋的补充。

(照片由 Sean Robertson 提供)

另见:参议员调查 OpenAI 的安全和就业实践

想了解更多来自行业领袖的 AI 和大数据信息吗? 请查看 AI & 大数据博览会,该活动将在阿姆斯特丹、加利福尼亚和伦敦举行。该综合活动与其他领先活动共同举办,包括 智能自动化会议区块链博览会数字化转型周网络安全与云博览会

探索由 TechForge 提供的其他即将举行的企业技术活动和网络研讨会这里

标签: , , , , , ,