离线部署的MaxKB更换向量模型

1. LLM与向量模型之间的联系

LLM依赖于向量模型来表示和处理语言数据,而向量模型提供了一种数学框架来实现这一点。

2. 具体操作步骤

2.1 下载离线安装包后使用安装脚本正常部署MaxKB

安装文档参考,点这里
部署操作

2.2 安装完后在安装目录下创建相应目录为数据持久化做准备

mkdir -p /opt/maxkb/model

2.3 下载向量模型放到/opt/maxkb/model下

向量模型下载地址
MaxKB默认使用的是 moka-ai/text2vec ,还可以使用其他的向量模型,我使用的是m3e-large。具体模型之间的对比见下图:
模型对比

我放置的向量模型位置如下图所示:
放置位置参考

2.4 修改MaxKB的compose文件

编辑 /opt/maxkb/docker-compose.yml 文件

version: "3.9"
services:
  maxkb:
    container_name: maxkb
    hostname: maxkb
    restart: always
    image: ${MAXKB_IMAGE_REPOSITORY}/maxkb:${MAXKB_VERSION}
    # 这里是我添加的模型参数,指定对应你的模型(注意是要写容器内的模型应用地址)
    environment:
      - MAXKB_EMBEDDING_MODEL_NAME=/opt/maxkb/model/embedding/m3e-large
    #
    ports:
      - "${MAXKB_PORT}:8080"
    healthcheck:
      test: ["CMD", "curl", "-f", "localhost:8080"]
      interval: 10s
      timeout: 10s
      retries: 120
    volumes:
      - /tmp:/tmp
      - ${MAXKB_BASE}/maxkb/logs:/opt/maxkb/app/data/logs
    # 这里我把向量模型持久化出来了
      - ${MAXKB_BASE}/maxkb/model:/opt/maxkb/model/embedding
    env_file:
      - ${MAXKB_BASE}/maxkb/conf/maxkb.env
    depends_on:
      pgsql:
        condition: service_healthy
    networks:
      - maxkb-network
    entrypoint: ["docker-entrypoint.sh"]
    command: "python /opt/maxkb/app/main.py start"

networks:
  maxkb-network:
    driver: bridge
    ipam:
      driver: default

2.5 重启MaxKb服务

kbctl stop && kbctl start

  • 3
    点赞
  • 2
    收藏
    觉得还不错? 一键收藏
  • 0
    评论
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值