忘掉庞大、缓慢的模型吧。 Mistral 的最新版本速度极快、功能强大,可随时部署在您的笔记本电脑上。
导言
您是否曾觉得人工智能世界只属于那些拥有庞大服务器和巨额资金的人呢? 这种情况正在开始改变,而 Mistral AI 正站在这场革命的前沿。 他们的新产品 Mistral Small 3 不仅仅是另一个模型,它还改变了游戏规则。 这个 240 亿参数的模型专为提高速度和效率而设计,可与 Llama 3.3 70B 等巨头相媲美,并采用 Apache 2.0 许可。 是的,你没看错:开放源代码,快如闪电。 准备好大吃一惊吧,因为这不仅仅是一个数字,而是一种模式的转变。
您应该感到兴奋的原因
Mistral Small 3 并不是为了炫耀基准分数,而是专为实际使用案例而设计。以下是您需要关注的原因:
- 速度恶魔:忘掉大型模型的延迟问题。Mistral Small 3 专为低延迟而设计,击败了其他开放式型号,甚至一些专有型号。在相同硬件条件下,Mistral Small 3 比 Llama 3.3 70B 快 3 倍。
- 动力十足:该机型超越了其重量级。Mistral Small 3 可与三倍于其大小的模型竞争,为 "80%"的日常生成式人工智能任务提供顶级性能。
- Open & Free:根据 Apache 2.0 许可发布,完全开源。下载它、定制它、在任何地方使用它,没有任何附加条件。现在,权力掌握在我们手中,而且完全免费!
Mistral Small 3 的性能如何?
下面我们就来看看这些令人印象深刻的数据:
- 人工评估:Mistral 使用 1000 多条提示对其他型号进行了盲比。
- 指令性能:指令调整模型在编码、数学、常识和指令跟踪等方面与更大型的模型相比都毫不逊色。
- 预训练表现:即使是基本型号也令人印象深刻,可与 Llama 3.3 70B 等型号相媲美。这意味着这个未使用 RL 或合成数据训练的基础模型已经相当强大。
Mistral Small 3 可用于哪些场合?
Mistral Small 3 不仅仅适用于实验室。
- 快速对话协助:需要快速、准确的聊天机器人?这就是您需要的模式。
- 低延迟函数调用: 自动化工作流程和代理任务的理想选择。
- 微调主题专家: 自定义法律咨询、医疗诊断等功能。
- 本地推理: 在单个 RTX 4090 或配备 32GB 内存的 MacBook 上私下运行。 无需云!