Docker Compose部署大语言模型LLaMa3+可视化UI界面Open WebUI

一、介绍

  • Ollama:部署+运行大语言模型的软件
  • LLaMa3:史上最强开源AI大模型 — Meta公司新发布的大语言模型
  • Open WebUI:AI用户界面,可通过浏览器访问

二、Docker部署

docker-compose.yml文件如下:

version: '3'

services:
  ollama:
    container_name: bruce-ollama
    image: ollama/ollama
    volumes:
      - ./runtime/ollama:/root/.ollama
      - ./config/models:/data/models
    environment:
      - TZ=Asia/Shanghai
    ports:
      - "11434:11434"
    networks:
      - public

  open-webui:
    container_name: bruce-open-webui
    image: m.daocloud.io/ghcr.io/open-webui/open-webui:main
    volumes:
      - ./runtime/open-webui:/app/backend/data
    ports:
      - "3000:8080"
    environment:
      - TZ=Asia/Shanghai
      - 'OLLAMA_BASE_URL=http://ollama:11434'
      - 'HF_ENDPOINT=https://hf-mirror.com'
    networks:
      - public

networks:
  public:

Open WebUI原始镜像是ghcr.io/open-webui/open-webui:main,这里使用daocloud镜像加速器,加上m.daocloud.io/前缀即可。
Open WebUI容器指定配置项,访问ollama的链接+HuggingFace的镜像地址

三、下载LLaMa3中文模型+运行

LLaMa3模型对中文支持度有限,在HuggingFace上下载LLaMa3中文模型
在这里插入图片描述
选择一个GGUF格式的模型,GGUF格式是llama.cpp团队搞的一种模型存储格式,一个模型就是一个文件,方便下载
在这里插入图片描述
q越大说明模型质量越高,同时文件也更大,选择q3,把这个模型文件下载到本地
导入模型
下载到本地的模型文件不能直接导入到Ollama,需要编写一个配置文件:llama3-cn-config.txt

FROM "/data/models/Llama3-8B-Chinese-Chat.q6_k.GGUF"

TEMPLATE """{{- if .System }}
<|im_start|>system {{ .System }}<|im_end|>
{{- end }}
<|im_start|>user
{{ .Prompt }}<|im_end|>
<|im_start|>assistant
"""

SYSTEM """"""

PARAMETER stop <|im_start|>
PARAMETER stop <|im_end|>

进入ollama容器内部,下载的模型+配置文件,挂载在/data/models目录,进入容器内此目录下运行:

ollama create llama3-cn -f ./llama3-cn-config.txt

查看已导入的模型

ollama list

在这里插入图片描述

运行模型

ollama run llama3-cn

运行成功之后,就可以在命令行中向大模型提问
在这里插入图片描述

四、Web界面

打开http://127.0.0.1:3000/即可,先注册账号,即可登录
在这里插入图片描述
使用也很简单,类似于chatgpt的web界面
在这里插入图片描述

结束!
q3模型质量有限,可以下载更高质量的模型观测

千里之行始于足下,每天紧握一颗稻草,最后就会长出参天大树。喜欢的朋友可以关注/赞赏一下,你的鼓励将给我莫大的动力!

  • 7
    点赞
  • 3
    收藏
    觉得还不错? 一键收藏
  • 打赏
    打赏
  • 0
    评论
以下是详细的步骤: 1. 首先,安装DockerDocker Compose。可以在Docker官网上找到适合您操作系统的安装包。 2. 创建项目目录,并在其中创建以下文件和文件夹: - `docker-compose.yml`: Docker Compose配置文件 - `Dockerfile`: Django应用程序的Dockerfile - `requirements.txt`: Django应用程序的依赖项列表 - `app/`: Django应用程序的代码 - `uwsgi.ini`: uWSGI服务器配置文件 3. 编写Dockerfile文件,以构建Django应用程序的Docker镜像。以下是一个示例Dockerfile: ``` # 使用Python 3.8作为基础镜像 FROM python:3.8 # 设置工作目录 WORKDIR /app # 将当前目录中的文件复制到容器中的/app目录下 COPY . /app # 安装应用程序依赖项 RUN pip install -r requirements.txt # 设置环境变量 ENV DJANGO_SETTINGS_MODULE=myproject.settings.production # 运行uWSGI服务器 CMD ["uwsgi", "--ini", "/app/uwsgi.ini"] ``` 4. 编写uwsgi.ini文件,以配置uWSGI服务器。以下是一个示例uwsgi.ini: ``` [uwsgi] http = :8000 chdir = /app module = myproject.wsgi:application master = true processes = 2 threads = 2 vacuum = true ``` 5. 编写docker-compose.yml文件,以定义Docker Compose服务。以下是一个示例docker-compose.yml: ``` version: '3' services: web: build: . command: uwsgi --ini /app/uwsgi.ini volumes: - .:/app ports: - "8000:8000" depends_on: - db - redis db: image: mysql:8.0 environment: MYSQL_ROOT_PASSWORD: password MYSQL_DATABASE: myproject volumes: - db_data:/var/lib/mysql redis: image: redis:latest volumes: db_data: ``` 6. 运行Docker Compose服务: ``` $ docker-compose up ``` 7. 访问http://localhost:8000,即可查看Django应用程序。
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包

打赏作者

声声不语的程序人生

你的鼓励将给我莫大的动力!

¥1 ¥2 ¥4 ¥6 ¥10 ¥20
扫码支付:¥1
获取中
扫码支付

您的余额不足,请更换扫码支付或充值

打赏作者

实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值