甭管是个人还是企业都能部署的Mistral-Small3.1,远超同级别的模型

本文已首发于 秋码记录
微信公众号:你我杂志刊
在这里插入图片描述

如果你也想搭建一个与秋码记录一样的网站,可以浏览我的这篇 国内 gitee.com Pages 下线了,致使众多站长纷纷改用 github、gitlab Pages 托管平台

秋码记录网站使用的主题是开源的,目前只在github.com开源。
hugo-theme-kiwi开源地址:https://github.com/zhenqicai/hugo-theme-kiwi

这不Gemma3刚开源出来,立马炸裂了整个“科技界”,还没等它把“热度”持续火下去,Mistral-Small3.1却再次掀起了“科技界”的热度。

Mistral-Small3.1Mistral AI推出的240亿参数开源多模态模型,基于Transformer架构优化设计,核心特性包括:

  • 多模态支持:支持文本与图像结合的任务处理,扩展了应用场景边界。
  • 128k超长上下文窗口:可一次性处理长篇文档或复杂对话,显著优于前代的32k窗口。
  • 高效推理引擎:采用量化技术优化推理速度,每秒处理150个token,延迟低至毫秒级,适合实时交互场景。
  • 本地化部署能力:支持在RTX 4090显卡或32GB内存的Windows设备上运行,通过Ollama等工具实现轻量化部署.

在这里插入图片描述

通过Ollama部署

那么,接下来,我们在本地通过Ollama来部署Mistral-Small3.1

如果你还没安装Ollama的话,那么,你可以去它的官网进行下载安装,Ollama官网

我这里选择了量化版,根据自己电脑的硬件设备来下载对应的量化版本

在这里插入图片描述

拷贝命令,直接黏贴到Terminal中。

ollama run MHKetbi/Mistral-Small3.1-24B-Instruct-2503:q6_K_L

在这里插入图片描述

在这里插入图片描述

主要特性和功能

  • 轻量级:Mistral Small 3.1 可以在单个 RTX 4090 或具有 32GB RAMMac 上运行。这使其非常适合设备上的使用情况。
  • 快速响应对话帮助:非常适合虚拟助手和其他需要快速、准确响应的应用程序。
  • 低延迟函数调用:能够在自动化或代理工作流程中快速执行函数
  • 针对专业领域进行微调:Mistral Small 3.1 可以针对特定领域进行微调,打造精准的主题专家。这在法律咨询、医疗诊断和技术支持等领域尤其有用。
  • 高级推理的基础:社区在开放的 Mistral 模型之上构建模型的方式继续给留下深刻印象。仅在过去几周,就看到了几个基于 Mistral Small 3 构建的出色推理模型,例如Nous ResearchDeepHermes 24B。为此,发布了 Mistral Small 3.1 的基础和指令检查点,以便进一步对模型进行下游定制。

如果你本地电脑硬件资源有限的话,那么是可以前往Mistral 官方平台上使用,上面是满血版【点击前往

评论 1
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包

打赏作者

甄齐才

你的鼓励将是我创作的最大动力

¥1 ¥2 ¥4 ¥6 ¥10 ¥20
扫码支付:¥1
获取中
扫码支付

您的余额不足,请更换扫码支付或充值

打赏作者

实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值