这里是对 Ollama 命令的详细使用说明,包括常见命令、参数解释和示例,帮助大家全面掌握 Ollama 的使用。
1. Ollama简介
Ollama 是一个本地LLM(大语言模型)运行工具,它允许你在本地设备上拉取、运行和管理AI模型(如LLaMA、Mistral、Gemma等)。Ollama支持CLI操作,非常适合开发者和AI爱好者使用。
2. 基本命令列表
命令 | 作用 |
---|---|
ollama pull | 拉取模型 |
ollama run | 运行模型交互 |
ollama create | 创建自定义模型 |
ollama list | 查看本地模型列表 |
ollama show | 查看模型详细信息 |
ollama push | 推送自定义模型到Ollama Hub(或其他仓库) |
ollama cp | 复制/重命名模型 |
ollama rm | 删除本地模型 |
ollama serve | 以服务形式运行(搭建API) |
ollama pull | 从远程仓库拉取模型 |
ollama system | 查看系统资源使用情况 |
3. 命令详细说明与示例
3.1 拉取模型(pull)
从官方仓库或自定义仓库拉取模型。
ollama pull llama2
可指定具体模型版本:
ollama pull llama2:7b
从其他仓库地址拉取:
OLLAMA_ORIGIN=https://your-custom-registry.com ollama pull my-custom-model
3.2 运行模型(run)
启动指定模型,进入交互对话模式。
ollama run llama2
直接运行并指定prompt:
ollama run llama2 -p "帮我写一个Python冒泡排序。"
注意:
- 可通过
-p
传入prompt。 - 可以通过
-m
指定模型,方便shell脚本调用。
3.3 创建自定义模型(create)
根据自定义Modelfile创建新模型。
Modelfile(示例):
FROM llama2:7b
SYSTEM "You are a helpful AI assistant."
命令:
ollama create my-llama2 -f ./Modelfile
3.4 查看本地模型列表(list)
ollama list
输出示例:
NAME SIZE MODIFIED
llama2 3.8 GB 2 days ago
mistral 4.2 GB 5 hours ago
3.5 查看模型详细信息(show)
ollama show llama2
可查看模型的元信息,如系统消息、模板等。
3.6 推送自定义模型(push)
推送本地自定义模型到远程仓库(如Ollama Hub)。
ollama push my-llama2
可设置环境变量OLLAMA_ORIGIN
来推送到自定义仓库。
3.7 复制模型(cp)
ollama cp my-llama2 my-llama2-backup
相当于模型的重命名和备份。
3.8 删除模型(rm)
ollama rm my-llama2
3.9 作为API服务运行(serve)
ollama serve
默认监听:
http://localhost:11434
可以接受HTTP API请求。
示例:
curl -X POST http://localhost:11434/api/generate -d '{
"model": "llama2",
"prompt": "Explain what is AI."
}'
3.10 系统信息查看(system)
查看Ollama后台运行的系统资源信息,如显存、CPU等:
ollama system
输出示例:
Version: v0.1.32
Models: 5
Disk usage: 28 GB
GPU: RTX 3090, 24 GB
4. 常用参数说明
参数 | 说明 | 示例 |
---|---|---|
-m | 指定模型 | -m llama2:7b |
-p | 直接传入prompt | -p "写一个hello world程序" |
-f | 指定Modelfile路径 | -f ./Modelfile |
-t | 设定生成温度 | -t 0.7 |
--stream | 开启流式输出 | --stream |
--no-cache | 禁用缓存 | --no-cache |
5. 配置环境变量
可在~/.ollama/config.toml
中设置一些全局参数,比如镜像源或缓存目录:
origin = "https://custom-ollama-registry.com"
cache_dir = "/path/to/cache"
6. 结合 Docker 使用(可选)
你也可以通过Docker运行Ollama:
拉取Ollama Docker镜像
docker pull ollama/ollama
启动容器
docker run -d --name ollama \
-v ollama_data:/root/.ollama \
-p 11434:11434 \
ollama/ollama
进入容器
docker exec -it ollama bash
7. API调用示例
Ollama内置API服务,结合前端或其他程序调用:
获取模型列表
curl http://localhost:11434/api/tags
生成内容
curl -X POST http://localhost:11434/api/generate -d '{
"model": "llama2",
"prompt": "什么是机器学习?",
"stream": false
}'
8. 总结
功能 | 命令 |
---|---|
拉取模型 | ollama pull <model> |
运行模型 | ollama run <model> |
自定义模型 | ollama create <name> -f <Modelfile> |
查看模型 | ollama list , ollama show |
删除模型 | ollama rm <name> |
服务模式 | ollama serve |
查看系统资源 | ollama system |
API调用 | curl -X POST http://localhost:11434/api/generate |