一、启动与停止服务
- 启动Ollama服务
- ollama serve:启动Ollama服务器,以便运行模型和处理请求。首次启动可能会生成ssh私钥文件,并提示服务端口状态。如果服务已在运行中,可以通过netstat -tulpn | grep 11434命令进行确认。
- 重启Ollama服务
- 对于不同操作系统,重启命令可能有所不同。例如,在Ubuntu/Debian系统上,可以使用systemctl daemon-reload和systemctl restart ollama命令;在CentOS系统上,则可能需要使用sudo yum update、sudo yum install lsof、stop ollama、lsof -i :11434、kill 和ollama serve等命令组合。
二、模型管理
- 创建模型
- ollama create [Modelfile路径]:使用包含模型信息的Modelfile来创建一个新模型。
- 显示模型信息
- ollama show:显示特定模型的详细信息,如模型名称、版本等。
- 列出模型
- ollama list:列出本地所有可用的模型。
- 从注册表拉取模型
- ollama pull [模型名称]:从模型注册表中拉取一个模型到本地使用。
- 推送模型到注册表
- ollama push [模型名称]:将本地模型推送到模型注册表中,以便他人或其他系统使用。
- 复制模型
- ollama cp [原模型名称] [新模型名称]:复制一个模型到另一个位置或给定名称的地方。
- 删除模型
- ollama rm [模型名称]:删除一个已安装的模型。
三、运行模型
- ollama run [模型名称]:运行一个已安装的模型,执行某些任务。可以根据需要指定模型的参数和配置。
四、会话管理
Ollama还提供了一些与会话管理相关的命令,这些命令可以帮助更好地控制和管理与模型的交互:
- 加载会话或模型
/load <model>
:加载一个特定的模型或会话。可以指定一个模型的名称或路径来加载它。
- 保存会话
/save <model>
:保存当前的会话状态或模型。可以将当前会话或模型的配置保存为一个文件,以便以后使用。
- 清除会话上下文
/clear
:清除会话上下文。这将删除当前会话中的所有历史记录或对话内容。
- 退出会话
/bye
:退出会话。这个命令将结束当前与模型的对话,并退出程序。
五、其他命令
- 查看帮助信息
- ollama help [命令名称] 或 ollama --help:获取有关Ollama任何命令的帮助信息。如果指定了命令名称,则显示该命令的详细帮助信息。
- 查看版本信息
- ollama version:显示当前Ollama工具的版本信息。
- 设置会话参数和配置
- /set:用于设置会话参数和配置。例如,设置消息格式、启用或禁用历史记录等。具体参数包括
/set system<string>、/set template<string>、/set history、/set nohistory、/set wordwrap、/set nowordwrap、/set format json、/set noformat、/set verbose和/set quiet
等。
- /set:用于设置会话参数和配置。例如,设置消息格式、启用或禁用历史记录等。具体参数包括
- 显示键盘快捷键
- /?shortcuts 或 /help shortcuts:显示键盘快捷键的帮助信息,帮助更快速地进行操作。
六、示例:安装qwen
1、安装Ollama
- 打开终端或命令提示符。
- 输入以下命令以安装Ollama:
curl -fsSL https://ollama.com/install.sh | sh
该命令会从Ollama的官方网站下载并安装Ollama。
2、下载并运行qwen2.5模型
- 安装完成后,可以使用以下命令来拉取(下载)qwen2.5模型:
ollama pull qwen2.5-coder:7b
这里以qwen2.5-coder的7b版本为例。如果想下载其他版本的qwen2.5模型,请将7b替换为相应的版本号。
- 下载完成后,可以使用以下命令来运行qwen2.5模型:
ollama run qwen2.5-coder:7b
该命令会启动Ollama服务,并加载qwen2.5-coder:7b模型。之后,可以通过Ollama提供的API接口与模型进行交互。
3、测试qwen2.5模型
可以使用curl命令或Python脚本来测试qwen2.5模型是否正常工作。以下是一个使用curl命令测试qwen2.5模型的示例:
curl http://localhost:11434/v1/chat/completions \
-H "Content-Type: application/json" \
-d '{ "model": "qwen2.5-coder:7b","stream":true, "messages": [ { "role": "user", "content": "你好" } ] }'
该命令会向Ollama服务发送一个包含用户消息的请求,并等待模型返回回答。如果模型正常工作,应该能够看到模型返回的“你好”对应的回答。
请注意,随着Ollama的更新和发展,可能会有新的命令和功能被添加或修改。因此,建议定期查看Ollama的官方文档或GitHub仓库以获取最新的命令和功能信息。