Ollama是一个开源的可在本地启动并运行大语言模型的工具,提供命令行工具和Python SDK,简化了与其他项目和服务的集成,旨在帮助用户快速在本地运行大模型。它支持在Linux、Mac、Windows操作系统及Docker容器上运行。项目源码地址:https://github.com/ollama/ollama ,支持的模型库列表:https://ollama.com/library
在Windows10上安装Ollama:现在Windows上运行Ollama不再需要WSL。Ollama现在作为原生Windows应用程序运行,包括NVIDIA和AMD GPU支持。Windows上安装Ollama后,Ollama将在后台运行,并且ollama命令行可在cmd、powershell及终端应用程序如Git Bash中使用。
1.从https://github.com/ollama/ollama 下载OllamaSetup.exe;
2.双击OllamaSetup.exe进行安装,会默认安装到C盘,这里将其安装到D:\ProgramFiles\ollama,打开cmd,执行以下命令:
OllamaSetup.exe /DIR="D:\ProgramFiles\ollama"
3.执行命令"ollama --version",验证是否成功安装;
4.下载deepseek-r1,参数量为7B,执行命令"ollama run deepseek-r1",结果如下图所示:
5.模型默认会下载到C:\Users\spring\.ollama目录下,其中spring为用户名,这里调整为下载到D:\ProgramFiles\ollama\models目录下,添加系统环境变量OLLAMA_MODELS,将其设置为D:\ProgramFiles\ollama\models,保存设置;
6.注意:
(1).Windows上的Ollama将文件存储在几个不同的位置。
(2).如果从以前的版本升级Ollama,应先删除旧目录。
(3).可通过Windows设置中的"添加或删除程序"卸载Ollama。
(4).可通过设置环境变量OLLAMA_MODELS更改Ollama存储下载模型的位置。如果更改了OLLAMA_MODELS位置,安装程序将不会删除已下载的模型。
加载deepseek-r1进行交互,执行命令:ollama run deepseek-r1,问"如何成为AI工程师",执行结果如下图所示:
Ollama默认在http://localhost:11434上提供API服务。
常用命令汇总:
ollama --help # 查看Ollama支持的命令
ollama --version # 查看当前Ollama版本
ollama serve # 启动Ollama服务
ollama pull deepseek-r1 # 从注册表拉取模型,如deepseek-r1
ollam push deepseek-r1-copy # 将自定义模型推送到注册表
ollam run deepseek-r1 # 运行模型,如deepseek-r1
ollam list # 查看已下载的模型列表
ollam create my-llama -f ./Modelfile # 基于现有模型创建自定义模型
ollam cp deepseek-r1 deepseek-r1-copy # 复制一个已存在的模型
ollam stop deepseek-r1 # 停止正在运行的模型,如deepseek-r1
ollam rm deepseek-r1 # 删除模型,如deepseek-r1
ollam ps # 查看正在运行的模型列表
ollam show deepseek-r1 # 查看指定模型的详细信息,如deepseek-r1
/bye 或 按Ctrl+d # 退出Ollama环境