Ollama介绍

      Ollama是一个开源的可在本地启动并运行大语言模型的工具,提供命令行工具和Python SDK,简化了与其他项目和服务的集成,旨在帮助用户快速在本地运行大模型。它支持在Linux、Mac、Windows操作系统及Docker容器上运行。项目源码地址:https://github.com/ollama/ollama ,支持的模型库列表:https://ollama.com/library

      在Windows10上安装Ollama:现在Windows上运行Ollama不再需要WSL。Ollama现在作为原生Windows应用程序运行,包括NVIDIA和AMD GPU支持。Windows上安装Ollama后,Ollama将在后台运行,并且ollama命令行可在cmd、powershell及终端应用程序如Git Bash中使用。

      1.从https://github.com/ollama/ollama 下载OllamaSetup.exe;

      2.双击OllamaSetup.exe进行安装,会默认安装到C盘,这里将其安装到D:\ProgramFiles\ollama,打开cmd,执行以下命令:

OllamaSetup.exe /DIR="D:\ProgramFiles\ollama"

      3.执行命令"ollama  --version",验证是否成功安装;

      4.下载deepseek-r1,参数量为7B,执行命令"ollama run deepseek-r1",结果如下图所示:

      5.模型默认会下载到C:\Users\spring\.ollama目录下,其中spring为用户名,这里调整为下载到D:\ProgramFiles\ollama\models目录下,添加系统环境变量OLLAMA_MODELS,将其设置为D:\ProgramFiles\ollama\models,保存设置;

      6.注意:

      (1).Windows上的Ollama将文件存储在几个不同的位置。

      (2).如果从以前的版本升级Ollama,应先删除旧目录。

      (3).可通过Windows设置中的"添加或删除程序"卸载Ollama。

      (4).可通过设置环境变量OLLAMA_MODELS更改Ollama存储下载模型的位置。如果更改了OLLAMA_MODELS位置,安装程序将不会删除已下载的模型。

      加载deepseek-r1进行交互,执行命令:ollama run deepseek-r1,问"如何成为AI工程师",执行结果如下图所示:

      Ollama默认在http://localhost:11434上提供API服务。

      常用命令汇总

ollama --help # 查看Ollama支持的命令
ollama --version # 查看当前Ollama版本
ollama serve # 启动Ollama服务
ollama pull deepseek-r1 # 从注册表拉取模型,如deepseek-r1
ollam push deepseek-r1-copy # 将自定义模型推送到注册表
ollam run deepseek-r1 # 运行模型,如deepseek-r1
ollam list # 查看已下载的模型列表
ollam create my-llama -f ./Modelfile # 基于现有模型创建自定义模型
ollam cp deepseek-r1 deepseek-r1-copy # 复制一个已存在的模型
ollam stop deepseek-r1 # 停止正在运行的模型,如deepseek-r1
ollam rm deepseek-r1 # 删除模型,如deepseek-r1
ollam ps # 查看正在运行的模型列表
ollam show deepseek-r1 # 查看指定模型的详细信息,如deepseek-r1
/bye 或 按Ctrl+d # 退出Ollama环境
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值