Ollama 是一个本地部署大型语言模型(LLM)的开源工具,它支持多种主流的大模型,并持续更新对新模型的支持。用户可以通过 Ollama Model Library 查看所有当前支持的模型。
以下是截至目前 Ollama 支持的部分主流 AI 大模型及其版本信息整理:
Ollama 支持的主要大模型及版本
1. llama3
- 版本:8B、70B
- 开发者:Meta
- 说明:Llama 系列最新一代模型,性能更强,适用于对话、推理等任务。
2. llama2
- 版本:7B、13B、70B
- 开发者:Meta
- 说明:上一代 Llama 模型,在多个基准测试中表现优异。
3. mistral
- 版本:7B、22B(
mistral-large
) - 开发者:Mistral AI
- 说明:在代码生成和自然语言理解方面表现突出。
4. mixtral
- 版本:8x7B
- 开发者:Mistral AI
- 说明:混合专家模型(MoE),具有高效推理能力。
5. phi3
- 版本:3.8B(
phi3-mini
)、14B(phi3-medium
,phi3-large
) - 开发者:Microsoft
- 说明:小型但高性能的语言模型,适合边缘设备部署。
6. gemma
- 版本:2B、7B
- 开发者:Google
- 说明:轻量级模型,适合资源受限环境下的应用。
7. qwen
- 版本:7B、14B、32B、72B(部分为量化版)
- 开发者:阿里云
- 说明:通义千问系列模型,广泛应用于中文场景。
8. command-r
- 版本:16B
- 开发者:Cohere
- 说明:专为指令跟随设计,适用于对话系统和搜索任务。
9. dbrx
- 版本:123B(参数量极大)
- 开发者:Databricks
- 说明:大规模 MoE 模型,适合高复杂度任务。
10. nemotron
- 版本:4(包括
nemotron-4-340b-instruct
) - 开发者:NVIDIA
- 说明:用于生成高质量文本,尤其擅长内容创作。
11. deepseek
- 版本:1.0、2.0、MoE 版本
- 开发者:DeepSeek
- 说明:具备较强的多语言和代码生成能力。
12. yi
- 版本:6B、9B、34B、34B-Q(量化)
- 开发者:01.AI
- 说明:适用于多模态任务和长文本处理。
13. neural-chat
- 版本:7B
- 开发者:Intel
- 说明:优化了对话质量,适合聊天机器人场景。
14. zephyr
- 版本:7B
- 开发者:Hugging Face
- 说明:基于 Mistral 微调,适合对话和指令执行。
Ollama 支持模型汇总表
模型名称 | 主要版本 | 开发者 | 是否推荐使用 |
---|---|---|---|
llama3 | 8B, 70B | Meta | ✅ |
llama2 | 7B, 13B, 70B | Meta | ✅ |
mistral | 7B, 22B (mistral-large ) | Mistral AI | ✅ |
mixtral | 8x7B | Mistral AI | ✅ |
phi3 | phi3-mini (3.8B), phi3-medium (14B) | Microsoft | ✅ |
gemma | 2B, 7B | ✅ | |
qwen | 7B, 14B, 32B, 72B | 阿里云 | ✅ |
command-r | 16B | Cohere | ✅ |
dbrx | 123B | Databricks | ✅ |
nemotron | 4 | NVIDIA | ✅ |
deepseek | 1.0, 2.0, MoE | DeepSeek | ✅ |
yi | 6B, 9B, 34B, 34B-Q | 01.AI | ✅ |
neural-chat | 7B | Intel | ✅ |
zephyr | 7B | Hugging Face | ✅ |
⚠️ 注意:
- 某些大模型(如
dbrx
,qwen-72b
)需要较高内存或显存支持。- 可通过
ollama pull <model_name>
下载模型。- 更多模型请访问 Ollama 官方模型库
如需了解某个具体模型的使用方法或性能对比,请告诉我。