Ollama在Windows11部署与使用QWen2模型

0,Ollama介绍

Ollama是一个开源项目,旨在让用户能够轻松地在其本地计算机上运行大型语言模型(LLM),是一个开源的大型语言模型服务。它支持各种LLM,包括Llama 3、Mistral和Gemma。提供了类似OpenAI的API接口和聊天界面,可以非常方便地部署最新版本的GPT模型并通过接口使用。支持热加载模型文件,无需重新启动即可切换不同的模型。

Ollama官网:https://ollama.com/

模型库:https://ollama.com/library

GIthub地址:https://github.com/ollama/ollama

1,下载与安装

访问Ollama官网,点击【Download】按钮进入下载页面,选择Windows版本下载

下载后直接运行安装包,进行安装

软件本身是没有图形化界面的,需要用终端运行,以Windows PowerShell为例,运行下面的指令进行测试

ollama list

其他常用命令:

ollama serve       启动ollama
ollama create      从模型文件创建模型
ollama show        显示模型信息
ollama run         运行模型
ollama pull        从注册表中拉取模型
ollama push        将模型推送到注册表
ollama list        列出模型
ollama cp          复制模型
ollama rm          删除模型
ollama help        获取有关任何命令的帮助信息

 2,更改模型保存路径

默认的模型保存路径位于C盘,(C:\Users<username>.ollama\models),可以通过设置OLLAMA_MODELS进行修改,然后重启终端,重启ollama服务(需要去状态栏里关掉程序)

setx OLLAMA_MODELS "D:\ollama_model"

我们可以去电脑环境变量中查看是否改变成功

3,下载大模型

访问模型库,找到需要的模型,比如我打算使用qwen2,点进去可以选择参数量,以及查看模型介绍

比如我要下载qwen2的0.5B参数模型,在终端运行

ollama run qwen2:0.5b

即可自动开始下载和加载

4,测试模型

直接在终端交流

至此,在Windows本地部署Ollama并运行qwen2模型已经完成,如果需要Web或者客户端支持,可以查看GitHub里的推荐

5,Ollama Python库

访问GitHub:GitHub - ollama/ollama-python: Ollama Python library

有详细的教程,关于如何用Python调用本地的Ollama

评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包

打赏作者

sagima_sdu

你的鼓励将是我创作的最大动力

¥1 ¥2 ¥4 ¥6 ¥10 ¥20
扫码支付:¥1
获取中
扫码支付

您的余额不足,请更换扫码支付或充值

打赏作者

实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值