一、安装与配置
1.1 多平台安装
# Windows
下载安装包:https://ollama.com/download/OllamaSetup.exe
# macOS
curl -O https://ollama.com/download/Ollama-darwin.zip && unzip Ollama-darwin.zip
# Linux
curl -fsSL https://ollama.com/install.sh | sh
1.2 验证安装
ollama --version
# 预期输出:ollama version 0.1.20
二、模型操作指南
2.1 启动模型
# 启动默认模型(自动下载)
ollama run llama3.2
# 启动指定模型
ollama run deepseek-r1:1.5b
示例输出:
>>> 你好!我是DeepSeek-R1,有什么可以帮您?
2.2 查看运行中的模型
ollama ps
典型输出:
NAME ID SIZE PROCESSOR UNTIL
deepseek-r1:1.5b a42b25d8c10a 2.0 GB 100% GPU 4 minutes from now
2.3 停止模型运行
# 使用完整模型名称(注意大小写)
ollama stop deepseek-r1:1.5b
# 使用完整模型ID(来自ollama ps)
ollama stop a42b25d8c10a
2.4 查看已下载模型
ollama list
输出示例:
NAME ID SIZE MODIFIED
deepseek-r1:1.5b a42b25d8c10a 1.1 GB 24 minutes ago
llama3.2 b3daa9d2e1f1 2.0 GB 3 days ago
三、常见问题解决
3.1 停止命令报错分析
# 错误示例(多余符号或不完整ID)
ollama stop .deepseek-r1:1.5b # 错误:多余的点号
ollama stop a42b # 错误
# 正确方式
ollama stop deepseek-r1:1.5b # 完整模型名
四、高级技巧
4.1 多模型并行运行
# 启动两个不同模型
ollama run llama3.2
ollama run deepseek-r1:1.5b
# 查看并行进程
ollama ps
4.2 模型生命周期管理
操作 | 命令 | 描述 |
---|---|---|
下载模型 | ollama pull <name> | 仅下载不运行 |
删除模型 | ollama rm <name> | 释放磁盘空间 |
复制模型 | ollama cp src dest | 创建模型副本 |
查看模型详情 | ollama show <name> | 显示模型参数和配置信息 |
五、应用场景示例
5.1 文件内容总结
ollama run llama3.2 "总结这个文件:$(cat report.docx)"
5.2 图片分析(多模态)
ollama run llava "图片里有什么?C:\Users\MyPictures\diagram.png"
5.3 开发调试
# 启动开发服务器
./ollama serve
# 另开终端运行测试
./ollama run deepseek-r1:1.5b
六、生态系统扩展
6.1 常用集成工具
类型 | 推荐工具 | 亮点功能 |
---|---|---|
Web界面 | Open WebUI | 可视化模型管理 |
IDE插件 | VSCode Ollama | 代码自动补全 |
移动端 | Ollama App | 跨平台移动管理 |
自动化 | LangChain | 构建AI工作流 |
七、最佳实践建议
- 内存管理:7B模型至少8GB内存,13B模型需要16GB
- 命令规范:所有命令均直接使用模型名称或完整ID,无需添加特殊符号
- 版本控制:使用
:version
标签管理不同迭代版本 - 日志查看:通过
ollama serve
输出调试运行信息
注意事项:
如遇到unknown command
错误,可通过ollama help
查看最新支持的命令列表。
延伸阅读:
Ollama官方文档
模型微调指南
REST API使用手册
(注:本文命令示例基于Windows PowerShell环境,Linux/macOS用户请使用终端命令)