FastGPT私有化部署+OneAPI配置大模型

介绍

FastGPT 是一个基于 LLM 大语言模型的知识库问答系统,提供开箱即用的数据处理、模型调用等能力。同时可以通过 Flow 可视化进行工作流编排,从而实现复杂的问答场景!

官网地址 https://doc.fastai.site/docs/intro/

部署

FastGPT提供了多种部署方式,我本次采用docker部署。、

  1. 安装docker 和 docker-compose,这个没有安装的可以自行百度;

  2. 创建目录并下载 docker-compose.yml

mkdir fastgpt
cd fastgpt
#非Linux系统环境可以手动下载这两个文件
curl -O https://raw.githubusercontent.com/labring/FastGPT/main/files/deploy/fastgpt/docker-compose.yml
curl -O https://raw.githubusercontent.com/labring/FastGPT/main/projects/app/data/config.json

可手动下载这两个文件 docker-compose.yml, config.json

  1. 启动容器
    修改docker-compose.yml中的OPENAI_BASE_URL和CHAT_API_KEY即可,对应为 API 的地址(别忘记加/v1)和 key。
#在 docker-compose.yml 同级目录下执行
docker-compose pull
docker-compose up -d
  1. 访问FastGPT
    目前可以通过 ip:3000 直接访问(注意防火墙)。登录用户名为 root,密码为docker-compose.yml环境变量里设置的 DEFAULT_ROOT_PSW。

OneAPI部署与配置

介绍

OpenAI 接口管理 & 分发系统,支持 Azure、Anthropic Claude、Google PaLM 2 & Gemini、智谱 ChatGLM、百度文心一言、讯飞星火认知、阿里通义千问、360 智脑以及腾讯混元,可用于二次分发管理 key,仅单可执行文件,已打包好 Docker 镜像,一键部署,开箱即用.

FastGPT 与 One API 关系

可以把 One API 当做一个网关。
在这里插入图片描述

部署

docker部署

mkdir oneapi
cd oneapi

  1. 创建文件docker-compose.yml并粘贴如下内容
version: '3.8'
services:
oneapi:
  container_name: oneapi
  image: justsong/one-api:latest
  restart: unless-stopped
  network_mode: bridge
  ports:
    - 3001:3000
  volumes:
      - /share/Container/oneapi/data:/data
  environment:
      - TZ=Asia/Shanghai
  1. 切换到oneapi文件下,执行 docker-compose up -d 启动应用
  2. 访问应用:输入IP+端口3001

使用docker ps 命令可以看oneapi服务是否已经启动

直接下载exe

下载地址 https://github.com/songquanpeng/one-api/releases
下载后运行exe文件后弹出窗口显示one-api已启动,即可访问应用(默认是3000端口):http://localhost:3000/

配置

渠道可以简单理解为各个大模型厂商,可以是原始厂商,也支持代理厂商,每家厂商又可以支持多种模型。
在这里插入图片描述
新建渠道设置类型、名称、分组、模型、模型重定向、密钥(密钥:从大模型厂商获得的API Key)、代理等。
在这里插入图片描述
令牌管理
在这里插入图片描述

修改FastGPT的配置

有了 One API 令牌后,FastGPT 可以通过修改 baseurl 和 key 去请求到 One API,再由 One API 去请求不同的模型。修改下面两个环境变量:
其中CHAT_API_KET的值为OneAPI的令牌值,OPENAI_BASE_URL为部署的oneAPI的地址,记得加上/v1
在这里插入图片描述

修改 FastGPT 配置文件config.json

{
      "model": "qwen-plus",
      "name": "lingmouAI",
      "maxContext": 8000,
      "maxResponse": 4000,
      "quoteMaxToken": 2000,
      "maxTemperature": 1,
      "vision": false,
      "defaultSystemChatPrompt": "" 
}

重新启动FastGPT

docker-compose up -d

我配置的是宿主机上的9091端口映射到容器内的3000端口,所以访问 http://localhost:9091/ 即可,用户名root,密码1234
这样就完成私有化部署啦,可以创建本地知识库并对话了。

问题总结

  1. 由于我的fastGPT使用的是docker部署的,而OneAPI直接下载的exe在本地部署的。当在OneAPI配置好令牌和渠道后,并且在fastGPT对应的docker-compose.yml配置好CHAT_API_KET和OPENAI_BASE_URL。我的配置如下:
- OPENAI_BASE_URL=http://localhost:3000/v1
- CHAT_API_KEY=*************************

发现对话功能报错,提示“Connection error.”
在这里插入图片描述
原因还是由于fastGPT和OneAPI部署不在同一环境中,容器里的3000端口并没有部署oneapi,所以找不到报错,改为本机的IP地址问题解决。

  • 21
    点赞
  • 24
    收藏
    觉得还不错? 一键收藏
  • 1
    评论

“相关推荐”对你有帮助么?

  • 非常没帮助
  • 没帮助
  • 一般
  • 有帮助
  • 非常有帮助
提交
评论 1
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值