Open-webui GPU版本的安装(ollama,llama3本地部署,docker部署)

安装依赖

  • 安装好需要的环境 nvidia docker
  • 安装好 nvidia docker 的 cuda

下载镜像

  • 同时安装Open WebUI和Ollama

  • 仅CPU,使用此命令:

docker run -d -p 3000:8080 -v ollama:/root/.ollama -v open-webui:/app/backend/data --name open-webui --restart always ghcr.io/open-webui/open-webui:ollama

GPU版本,使用GPU加速

  • 在Nvidia GPU支持下运行Ollama,请使用Nvidia-docker工具进行GPU访问,并为CUDA支持设置适当的环境变量::
docker run -d -p 8080:8080 --gpus=all -v ollama:/root/.ollama -v open-webui:/app/backend/data --name open-webui-gpu --restart always ghcr.io/open-webui/open-webui:ollama
备注
  • –name open-webui 表示该镜像的名称为 open-webui
  • -p 8080:8080 其中的8080是后面打开网页的端口号
  • 如果之前安装了 CPU 版本的open-webui, 那么,在安装GPU版本的时候要注意改一下gpu版本的名称(–name open-webui-gpu)
  • –volume open-webui:/app/backend/data 表示将本地的 open-webui 文件夹挂载到容器中,这样容器中的数据就保存到这个目录中的

安装模型

  • llama3:8b-instruct-fp16
  • llama3

可能会遇到无法安装模型的问题,只能安装litellm

  • 解决方法是移除相关镜像,然后重新拉去和安装镜像
  • 采用新命令安装gpu版本(猜测可能是没有安装ollama的原因)
docker run -d -p 8080:8080 --gpus=all -v ollama:/root/.ollama -v open-webui:/app/backend/data --name open-webui-gpu --restart always ghcr.io/open-webui/open-webui:ollama
可能会出现还保留有之前镜像注册的账户,这个时候需要删除之前镜像的挂载目录
  • 1、删除容器:先确保停止并删除相关容器,包括任何可能使用这些卷的容器。
docker stop open-webui
docker rm open-webui
  • 2、删除卷:删除卷,包括任何可能使用这些卷的容器。
docker volume rm ollama open-webui
  • 3、清理未使用的卷:如果不确定卷的名称,可以查看所有卷并删除未使用的卷。
docker volume prune
  • 4、重新启动容器:由于相关卷已被删除,任何之前的用户数据和设置都不会被加载。
### 部署和运行Ollama Open-WebUIGPU上的指南 为了在GPU上使用Docker部署并运行Ollama Open-WebUI,需先确认已安装支持NVIDIA GPUDocker环境。这通常意味着已经配置好带有CUDA支持的Docker版本以及相应的驱动程序[^2]。 #### 安装必要的组件 确保计算机配备有兼容的NVIDIA显卡,并按照官方指导完成NVIDIA Driver、CUDA Toolkit 和 NVIDIA Container Toolkit 的安装过程。这些工具允许容器化应用程序访问主机系统的GPU资源。 #### 启用Docker Desktop中的WSL 2集成(针对Windows用户) 对于Win11操作系统而言,在启动任何涉及GPU加速的操作前,应该开启WSL 2 (Windows Subsystem for Linux version 2),并且使能其与Docker Desktop之间的互操作性设置。此步骤有助于提高性能表现并简化后续流程。 #### 获取镜像文件 通过执行`docker pull ollama/open-webui-gpu`来拉取适用于GPU运算优化过的Open-WebUI Docker镜像。该特定标签包含了预编译好的依赖项以便更好地利用图形处理单元的能力。 ```bash docker pull ollama/open-webui-gpu ``` #### 运行容器实例 创建一个新的容器实例时指定参数以启用GPU共享功能: ```bash docker run --gpus all -d -p 7860:7860 --name=open-webui ollama/open-webui-gpu ``` 上述命令中: - `--gpus all`: 表明将分配所有的可用GPU给这个容器; - `-d`: 让容器以后台模式运行; - `-p 7860:7860`: 将宿主机端口映射到容器内部的服务监听地址; - `--name=open-webui`: 给新创建的容器赋予一个易于识别的名字; 此时应当能够成功地基于GPU硬件加速特性启动Ollama Open-WebUI服务[^1]。 #### 停止或移除容器 当不再需要正在运行的应用程序时,可以采用如下方式安全地中止进程或是彻底删除对应的容器对象: 要停止当前活动中的open-webui应用可输入: ```bash docker stop open-webui ``` 而若想完全卸载包括数据卷在内的整个项目,则应依次执行这两条指令: ```bash docker rm -f open-webui docker rmi ollama/open-webui-gpu ```
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值