linux系统部署ollama、open-webui

算力平台

本文章基于厚德云算力

部署方式

ollama是使用官方 curl -fsSL https://ollama.com/install.sh | sh 
open-webui是docker启动,docker正常启动,使用github推荐的

一、安装ollama

1、命令行下载并执行

下载地址:https://ollama.com/download/linux

curl -fsSL https://ollama.com/install.sh | sh

如果出现curl: (22) The requested URL returned error: 404,可多尝试几次

多次也无法下载的,需要使用github加速器

ollama解决国内下载慢的问题/国内下载/镜像_ollama国内镜像源-CSDN博客

2、查看是否安装成功

ollama

3、常用命令

ollama ps 查看正在运行的模型
ollama list 查看已经下载的模型列表
ollama help 查看ollama相关命令

4、运行模型

以千问大模型为例,包括拉取模型和启动

ollama run qwen2:7b

ollama模型库:https://ollama.com/library

https://ollama.com/library/qwen2

运行结果

5、查看服务

 netstat -tnlp

6、修改配置文件

默认ollama绑定在127.0.0.1的11434端口,修改/etc/systemd/system/ollama.service,在[Service]下添加如下内容,使ollama绑定到0.0.0.0的11434端口,这样就可以远程访问,openwebui即便是在docker中部署也可以访问到

Environment="OLLAMA_HOST=0.0.0.0"

7、重新启动服务

sudo systemctl daemon-reload
sudo systemctl restart ollama

7、设置外网

使用厚德云设置自定义端口

8、外网浏览器验证

在windows浏览器中输入:

http://deq1.dc.houdeyun.cn:63392/

9、使用ollama的rest api

查看大模型

http://deq1.dc.houdeyun.cn:63392/api/tags

http使用大模型

curl http://127.0.0.1:11434/api/generate -d '{"model": "qwen2:7b","prompt": "你是谁?","stream": false}'

10、编码实现API调用

编写python代码并测试


import requests

url = 'http://deq1.dc.houdeyun.cn:63392/api/generate'
data = {
    'prompt': '你是谁?',
    'model': 'qwen2:7b',
    'stream': False
}

resp = requests.post(url, json=data)
print(resp.text)

二、安装openwebui

官网:https://openwebui.com/#open-webui-community

1、安装docker

apt install podman-docker
apt install docker.io

2、启动Docker

systemctl start docker
systemctl enable docker

3、Docker启动open-webui

官网推荐部署

docker run -d -p 3000:8080 --add-host=host.docker.internal:host-gateway -v open-webui:/app/backend/data --name open-webui --restart always ghcr.io/open-webui/open-webui:main

此处仍需要修改openwebui与ollama关联,使用如下命令

sudo docker run -d --network=host -v open-webui:/app/backend/data -e OLLAMA_BASE_URL=http://127.0.0.1:11434 --name open-webui1 --restart always ghcr.io/open-webui/open-webui:main
  • docker run: 启动一个新的 Docker 容器。
  • -d: 以守护进程模式运行容器,容器将在后台运行。
  • -p 3000:8080: 将本地机器的端口 3000 映射到容器内的端口 8080。这意味着你可以通过访问 http://localhost:3000 来访问运行在容器内的服务。
  • --add-host=host.docker.internal:host-gateway: 将主机名 host.docker.internal 映射到 Docker 网关。这对于在容器内访问主机服务很有用。
  • -v open-webui:/app/backend/data: 将本地的 open-webui 卷映射到容器内的 /app/backend/data 目录。这用于持久化数据,确保即使容器停止或重新启动,数据也不会丢失。
  • --name open-webui: 为容器指定一个名称 open-webui,以便于管理和识别。
  • --restart always: 设置容器的重启策略为 always,这意味着容器如果停止(例如由于崩溃或系统重启),Docker 会自动重启它。
  • ghcr.io/open-webui/open-webui:main: 使用来自 GitHub 容器注册表(GitHub Container Registry)的 open-webui 镜像,并指定使用 main 标签的版本。

4、设置外网端口

5、浏览器打开网址

Open WebUIOpen WebUIhttp://zhy1.dc.houdeyun.cn:51372/auth

FAQ

1、pen-webui无法链接ollama 报错ERROR:apps.ollama.main:Connection error: Cannot connect

https://www.cnblogs.com/qumogu/p/18235298

参考文档

linux安装ollama和open-webui_wx61d7ee3732aae的技术博客_51CTO博客

ollama+open-webui,本地部署自己的大模型_python_spiderwower-开放原子开发者工作坊

linux下安装node_linux 安装 node 14-CSDN博客

[AI]Linux部署Ollama+Open-WebUi_linux ollama webui-CSDN博客

ollama大模型框架入门教程-open-webui安装 - 创客智造

https://www.cnblogs.com/farwish/p/18156478

百度安全验证

Ollama官网:https://ollama.com/

Ollama 代码仓库:https://github.com/ollama/ollama

Ollama 中文文档:https://ollama.qianniu.city/index.html

Ollama 中文网:在 Linux 上安装 - Ollama中文网

https://zhuanlan.zhihu.com/p/712360292
https://blog.csdn.net/qq_39314567/article/details/138651990
https://blog.csdn.net/weimeilayer/article/details/139267295

### 在 Linux 环境下从源码安装和配置 OpenWebUI #### 获取源代码 为了从源码部署 OpenWebUI,在终端执行如下命令获取项目源文件: ```bash git clone https://github.com/open-webui/open-webui.git cd open-webui ``` 上述操作会克隆 GitHub 上的 `open-webui` 仓库至本地并进入该目录[^2]。 #### 安装依赖项 通常情况下,开源项目的根目录会有说明文档(README.md),其中列出了所需的环境准备以及第三方库的要求。建议先阅读此文件了解具体的前置条件。一般而言,可能涉及 Python 虚拟环境创建、pip 工具更新及特定版本包的安装等步骤。对于某些特殊需求,比如 GPU 支持,则还需要额外安装 CUDA 和 cuDNN 驱动程序。 #### 构建与启动服务 完成依赖项设置之后,继续按照官方指南中的指示编译应用程序或直接通过内置脚本启动开发服务器。如果存在 Makefile 文件或其他构建工具配置,可以尝试使用这些自动化手段简化流程。例如: ```bash make install # 如果有对应的 make 命令用于安装 python app.py # 或者根据实际情况调整入口文件名 ``` 请注意实际路径和命令可能会有所不同,具体取决于项目的结构设计和个人定制化修改。 #### 访问接口测试 一旦成功启动了 Web 应用程序实例,就可以访问 `/config` 接口验证基本功能是否正常工作。这个端点提供了 GET 方法来查询当前的应用状态,包括但不限于 OpenAI API 的可用性检查[^3]。 #### 添加模型支持 针对 Ollama 及 Qwen2-7B 模型的支持,考虑到这是基于 Linux 平台的操作场景,可以直接参照相关社区贡献者的实践经验来进行集成。确保所使用的硬件满足最低规格要求,并且操作系统处于受支持的状态范围内[^4]。
评论 1
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包

打赏作者

源图客

你的鼓励将是我创作的最大动力

¥1 ¥2 ¥4 ¥6 ¥10 ¥20
扫码支付:¥1
获取中
扫码支付

您的余额不足,请更换扫码支付或充值

打赏作者

实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值