简介
Mistral AI和NVIDIA发布了 Mistral NeMo 12B,这是一种最先进的语言模型,有望重新定义企业 AI 应用的格局。
本文深入探讨了其特性、能力以及对人工智能行业的潜在影响。
主要贡献
Mistral NeMo 12B 在人工智能领域脱颖而出,原因如下:
- 具有 128k 上下文窗口的开源模型:大型上下文窗口开源模型很少见,像 Llama 3 系列这样的流行模型仅限于 8k 上下文窗口。NeMo 的 128k 上下文对于需要处理大型文档的 RAG 工作负载至关重要。此功能与其较小的尺寸相结合,应能提供快速的输入和输出处理速度。
- Mistral 7B 的后继产品:作为广受欢迎的 Mistral 7B 型号的后续产品,NeMo 的设计旨在作为直接替代品,使其易于在现有系统中使用。这种兼容性以及其微调潜力使其成为各种用例的理想选择。
- 长上下文处理的定价极具竞争力:在 Mistral AI 的 La Plateforme 上,NeMo 的定价为每百万输入和输出令牌 0.3 美元,与其他方案相比,NeMo 提供了一种经济高效的解决方案。对于上下文,GPT-4 的定价为每百万输入令牌 5 美元,而 Mixtral 8x22B(具有 65k 上下文窗口)的定价为每百万输入令牌 1.2 美元。这一定价使 NeMo 与 Gemini 1.5 Flash(0.35 美元)和 Claude 3 Haiku(0.25 美元)等模型非常接近。
这些特性使 Mistral NeMo 12B 成为广泛 AI 应用的强大且易于使用的工具,从自然语言处理到复杂的文档分析和生成任务。