Window部署Ollama+Qwen2.0+Open-WebUI

Windows下安装Docker

  1. 准备条件

开启Hyper-V,在“启用或关闭Windows功能”里,钩选Hyper-V,然后确定

image.png


安装Docker

----- Docker下载链接 -----
image.png


检查是否安装成功, 出现版本即为安装成功

docker version

image.png


安装Ollama

----- Ollama官网 -----
image.png

启动 Ollama 并拉取模型

  1. 准备条件, 设置模型下载路径( 土豪随意~ )

WIN + R , 输入**rundll32.exe sysdm.cpl,EditEnvironmentVariables**
在系统变量里新建一个, 待会下载模型会直接下到这个路径下面, 不然默认下载C盘
**默认模型下载路径 : ****C:\Users\<username>\.ollama\models**


image.png


  1. 在「开始」菜单中点击 Ollama 图标,运行后会在任务栏托盘中驻留一个图标。

image.png


  1. 右键点击任务栏图标,选择「View log」打开命令行窗口, 下载模型

image.png


当然也可以安装其他的模型, 诸君随意~

image.png


运行 7B 至少需要 8GB 显存,运行 13B 至少需要 16GB 显存, 注意这里是显存不是内存!!!
内存与显存、CPU与GPU、GPU与CUDA_cpu 逻辑运算 缓存 排队 显卡 内存 知乎-CSDN博客


  1. 使用模型

image.png


(选做) 修改默认地址和端口


Ollama API 的默认地址是**http://localhost:11434**

使用Windows + R快捷键打开「运行」对话框,输出以下命令,
C:\Windows\system32\rundll32.exe sysdm.cpl, EditEnvironmentVariables
然后按Ctrl + Shift + Enter以管理员权限启动「环境变量」


添加以下环境变量

  • 变量名:OLLAMA_HOST
  • 变量值(端口)::8000

(选做) Ollama 进行跨域配置

因浏览器安全限制,如果要调用 API ,需要为 Ollama 进行跨域配置后方可正常使用:

  • 变量名:OLLAMA_ORIGINS
  • 变量值:*

安装open-webui

安装成功效果如下

image.png


我们已经安装 Ollama , 可以直接拉取镜像就可以直接启动 open-webui 了

在cmd命令窗执行这条命令即可启动

docker run -d -p 3000:8080 --add-host=host.docker.internal:host-gateway -v open-webui:/app/backend/data --name open-webui --restart always ghcr.io/open-webui/open-webui:mai


启动成功之后的docker为这样, 点击port即可访问
image.png


第一次进入要注册账号, 第一个注册的账号即为管理员账号
然后选择我们之前下载好的模型, 就可以愉快的玩耍啦~ ( 此时模型要在后台运行哦~ )

image.png

  • 25
    点赞
  • 13
    收藏
    觉得还不错? 一键收藏
  • 0
    评论
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值