fastGpt中索引模型M3E换为bge-m3,处理效率翻8倍

本文介绍了如何将fastgpt的依赖从CPU计算的M3E模型切换到使用GPU的bgem3,通过在服务器上安装相关依赖并启动BGE-M3脚本,实现了显著的效率提升。操作步骤包括创建目录、下载脚本、安装依赖和更新API地址。
摘要由CSDN通过智能技术生成

fastgpt自带的索引模型是M3E,因为它是依赖CPU做计算,导致速度非常慢。网上偶然发现可以用bgem3调用GPU做计算,效率提升了不少

操作步骤:

1、在服务器100.161.35.42新建目录/data/wenda/model/bgem3

2、在魔搭社区下载 git clone 魔搭社区

3、附件中的文件bge-m3.py放到/data/wenda/model/bgem3目录

4、安装依赖:pip install sentence-transformers -i Simple Index ,只要安装这一个依赖就行,因为前面已经安装好了fastgpt、docker等环境

5、执行bge-m3.py脚本启动bgem3,请从这里下载BGE-M3启动脚本 - 模板之家

微信图片_20240425162941.png

6、登陆one-api: http://127.0.0.1:18087,把旧的M3E地址http://127.0.0.1:6008修改为bgem3地址http://127.0.0.1:5000

图片.png

  • 10
    点赞
  • 11
    收藏
    觉得还不错? 一键收藏
  • 3
    评论
评论 3
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值