Mistral-7B本地运行【Ollama】

本文介绍了MistralAI的70亿参数语言模型Mistral7B,其在多种基准测试中的优秀表现,以及如何通过Ollama在本地运行和微调。此外,还讨论了模型的使用许可和部署选项。
摘要由CSDN通过智能技术生成

Mistral AI 目前提供两种类型的大型语言模型访问方式:

  • 提供按使用量付费访问最新模型的 API,
  • 开源模型可在 Apache 2.0 许可证下使用,可在 Hugging Face 上或直接从文档中获取。

在本指南中,我们概述了 Mistral 7B LLM 以及如何提示它。此外还包括与 Mistral 7B 和微调模型相关的提示、应用、限制、论文和其他阅读材料。

NSDT工具推荐: Three.js AI纹理开发包 - YOLO合成数据生成器 - GLTF/GLB在线编辑 - 3D模型格式在线转换 - 可编程3D场景编辑器 - REVIT导出3D模型插件 - 3D模型语义搜索引擎 - Three.js虚拟轴心开发包 

1、Mistral-7B简介

Mistral 7B 是 Mistral AI 发布的 70 亿参数语言模型。 Mistral 7B 是一种精心设计的语言模型,可提供高效和高性能以支持实际应用程序。 由于效率的提高,该模型适用于需要快速响应的实时应用。 发布时,Mistral 7B 在所有评估基准中均优于最佳开源 13B 模型 (Llama 2)。

能力:Mistral 7B 在各种基准测试中都表现出了卓越的性能,甚至优于参数数量较多的模型。 它在数学、代码生成和推理等领域表现出色。 以下是数学推理、世界知识和常识推理等多项任务的结果

代码生成:Mistral 7B 实现了 Code Llama 7B代码生成性能,同时不牺牲非代码基准测试的性能。 让我们看一个简单的示例来演示 Mistral 7B 代码生成功能。

我们将使用 Fireworks.ai 推理平台来获取 Mistral 7B 提示示例。 我们使用默认设置并将 max_length 更改为 250。

Mistral 7B 专为轻松微调各种任务而设计。 Mistral 7B Instruct 模型快速演示了基本模型可以轻松微调以实现引人注目的性能。 该版本的模型针对对话和问题回答进行了微调。

与许多其他LLM一样,Mistral 7B 可能会产生幻觉,并且容易出现提示注入等常见问题。 虽然 Mistral 7B 在许多领域表现出了令人印象深刻的性能,但其有限的参数数量也限制了它可以存储的知识量,特别是与较大的模型相比。

2、Ollama 本地运行Mistral 7B

Ollama 是你在 macOS 或 Linux 上本地运行大型语言模型的简单方法。 只需下载 Ollama 并在 CLI 中运行以下命令之一即可。

对于默认的 Instruct 模型:

ollama run mistral

对于文本补全模型:

ollama run mistral:text

注意: 至少需要 8GB RAM。 你可以在 Ollama Mistral 库文档中找到更多详细信息。

3、结束语

Mistral 7B 是一个 7.3B 参数模型:

  • 在所有基准测试中均优于 Llama 2 13B
  • 在许多基准测试中均优于 Llama 1 34B
  • 接近 CodeLlama 7B 的代码性能,同时保持良好的英语任务表现
  • 使用分组查询注意力 (GQA) 进行更快的推理
  • 使用滑动窗口注意 (SWA) 以较小的成本处理较长的序列

Mistral AI在 Apache 2.0 许可证下发布 Mistral 7B,它可以不受限制地使用。

Mistral 7B 可以轻松地针对任何任务进行微调。 作为演示,官方提供了一个针对聊天进行微调的模型,其性能优于 Llama 2 13B chat模型。


原文链接:Ollama运行Mistral 7B - BimAnt

评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值