【LangChain-chatchat添加在线调用Openai的embedding模型:text-embedding-3-large】

LangChain-chatchat添加在线调用Openai的embedding模型:text-embedding-3-large

正确步骤:

博主已实验成功!!!!!

该篇介绍的是部署openai相关支持部分【在线调用,不吃硬件资源】,完整部署的可以根据实际情况借鉴修改

步骤一:拉取最新代码

git clone https://github.com/chatchat-space/Langchain-Chatchat.git

步骤二:添加text-embedding-3-large到候选列表

默认已经配置完环境,运行了copy_config_example.py和init_database.py文件。不明白的可以去看github的官方介绍

1.打开Langchain-Chatchat/configs/model_config.py文件
# 1.1 修改EMBEDDING_MODEL默认模型为text-embedding-3-large
# 1.2 修改LLM_MODELS,将openai-api放在最前面
# 1.3 修改ONLINE_LLM_MODEL,添加openai-api的api_key
# 1.4 修改MODEL_PATH,在"embed_model"里添加"text-embedding-3-large":“your api_key”

在这里插入图片描述
在这里插入图片描述
在这里插入图片描述
在这里插入图片描述

2.打开Langchain-Chatchat/webui_pages/knowledge_base/knowledge_base.py文件
# 2.1 查找knowledge_base_page函数
# 2.2 添加"text-embedding-3-large"到在线列表
embed_models = list_online_embed_models() + ["text-embedding-3-large"]

在这里插入图片描述

步骤三:补充筛选名单【最关键!!!】

1.打开Langchain-Chatchat/server/knowledge_base/kb_cache/base.py文件
# 1.1 查找EmbeddingsPool类
# 1.2 在EmbeddingsPool类里的load_embeddings函数中添加一段新代码,用于检测模型名字为text-embedding-3-large时,进行在线调用

在这里插入图片描述

步骤四:添加 #科学# 路径【需要本机有科学上网工具,如果没有网络问题,可以略过】

1.打开Langchain-Chatchat/startup.py文件
# 添加如下内容
os.environ["http_proxy"] = "http://localhost:7890"
os.environ["https_proxy"] = "http://localhost:7890"

在这里插入图片描述

步骤五:运行轻量化部署

python startup.py -a --lite

新建知识库,发现已成功调用text-embedding-3-large
在这里插入图片描述

  • 5
    点赞
  • 10
    收藏
    觉得还不错? 一键收藏
  • 4
    评论

“相关推荐”对你有帮助么?

  • 非常没帮助
  • 没帮助
  • 一般
  • 有帮助
  • 非常有帮助
提交
评论 4
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值