Windows系统安装Ollama及常用操作命令指南
一、Ollama简介
Ollama是一个跨平台的开源工具,支持在Windows、Linux和macOS上本地运行大语言模型[1]。它提供了丰富的模型库,包括Llama、DeepSeek等,并允许用户通过简单的命令行操作快速部署和管理模型[8]。
二、Windows系统安装Ollama
-
下载Ollama
- 访问Ollama官网下载页面:https://ollama.com/download。
- 选择“Download for Windows (Preview)”按钮,下载
OllamaSetup.exe
。
-
安装过程
- 双击下载的
OllamaSetup.exe
文件,点击“Install”按钮。 - 按照安装向导提示,一路点击“下一步(Install)”,完成安装。
- 双击下载的
-
验证安装
- 打开命令提示符(CMD)或PowerShell,输入以下命令:
ollama -v
- 如果安装成功,会显示Ollama的版本信息,例如:
- 打开命令提示符(CMD)或PowerShell,输入以下命令:
-
更改模型存储位置(可选)
- 默认情况下,Ollama的模型存储在
C:\Users\%username%\.ollama\models
。 - 如果需要更改存储位置,可以通过设置环境变量
OLLAMA_MODELS
来实现。例如,将模型存储到D:\ollama\models
:setx OLLAMA_MODELS "D:\ollama\models"
- 修改后需要重启Ollama服务。
- 默认情况下,Ollama的模型存储在
三、Ollama常用操作命令
-
启动Ollama服务
ollama serve
-
列出本地模型
ollama list
-
拉取模型
从Ollama模型库中下载模型,例如拉取DeepSeek R1模型:ollama pull deepseek-r1
-
运行模型
运行一个已下载的模型,例如运行DeepSeek R1的1.5b版本:ollama run deepseek-r1:1.5b
-
查看运行中的模型
ollama ps
-
删除模型
ollama rm model_name
-
查看Ollama版本
ollama -v
-
查看模型详细信息
ollama show model_name
-
停止运行中的模型
ollama stop model_name
四、使用Ollama的注意事项
-
内存和硬件要求
- 不同模型对硬件要求不同。例如,DeepSeek R1的1.5b版本适合低配设备(8GB内存),而7b版本需要至少16GB内存]。
- 如果设备内存不足,可能会导致模型运行缓慢或失败。
-
网络访问
- 如果需要在局域网中访问Ollama的API,需要设置环境变量
OLLAMA_HOST
为0.0.0.0
,并重启Ollama。
- 如果需要在局域网中访问Ollama的API,需要设置环境变量
-
模型参数调整
- 可以通过
/set
命令调整模型参数,例如调整上下文窗口大小:ollama run model_name >>> /set parameter num_ctx 4096
- 可以通过
五、模型选择建议
根据硬件配置选择合适模型:
- 低配设备(8GB内存):建议2B/7B参数模型(如gemma:2b)
- 中端设备(16GB内存+4GB显存):推荐13B参数模型(如llama2:13b)
- 高性能设备(32GB内存+8GB显存):可运行70B参数模型68
六、总结
Ollama为本地部署大语言模型提供了极大的便利,即使是初学者也能快速上手。通过简单的安装步骤和命令行操作,用户可以在本地运行各种开源模型,享受高效、安全的AI体验[1][8]。如果需要了解更多高级功能,可以参考Ollama的官方文档。