LangChain-chatchat添加在线调用Openai的embedding模型:text-embedding-3-large
正确步骤:
博主已实验成功!!!!!
该篇介绍的是部署openai相关支持部分【在线调用,不吃硬件资源】,完整部署的可以根据实际情况借鉴修改
步骤一:拉取最新代码
git clone https://github.com/chatchat-space/Langchain-Chatchat.git
步骤二:添加text-embedding-3-large到候选列表
默认已经配置完环境,运行了copy_config_example.py和init_database.py文件。不明白的可以去看github的官方介绍
1.打开Langchain-Chatchat/configs/model_config.py文件
# 1.1 修改EMBEDDING_MODEL默认模型为text-embedding-3-large
# 1.2 修改LLM_MODELS,将openai-api放在最前面
# 1.3 修改ONLINE_LLM_MODEL,添加openai-api的api_key
# 1.4 修改MODEL_PATH,在"embed_model"里添加"text-embedding-3-large":“your api_key”
2.打开Langchain-Chatchat/webui_pages/knowledge_base/knowledge_base.py文件
# 2.1 查找knowledge_base_page函数
# 2.2 添加"text-embedding-3-large"到在线列表
embed_models = list_online_embed_models() + ["text-embedding-3-large"]
步骤三:补充筛选名单【最关键!!!】
1.打开Langchain-Chatchat/server/knowledge_base/kb_cache/base.py文件
# 1.1 查找EmbeddingsPool类
# 1.2 在EmbeddingsPool类里的load_embeddings函数中添加一段新代码,用于检测模型名字为text-embedding-3-large时,进行在线调用
步骤四:添加 #科学# 路径【需要本机有科学上网工具,如果没有网络问题,可以略过】
1.打开Langchain-Chatchat/startup.py文件
# 添加如下内容
os.environ["http_proxy"] = "http://localhost:7890"
os.environ["https_proxy"] = "http://localhost:7890"
步骤五:运行轻量化部署
python startup.py -a --lite
新建知识库,发现已成功调用text-embedding-3-large