langchain加载本地词向量模型

1. 准备本地词向量模型

以从 huggingface 上下载BAAI/bge-m3模型为例

手动下载图片上的每一个文件(夹)。注意,是每一个文件(夹)都要下载。我就是少下载了一个1_Pooling 文件夹,结果在加载模型的时候一直报错,搞了大半天才找到原因。

2. 加载词向量模型

from langchain_community.embeddings import HuggingFaceBgeEmbeddings

model_name = "F:/llm/embedding_models/BAAI/bge-m3"
model_kwargs = {"device": "cpu"}
encode_kwargs = {"normalize_embeddings": True}
hf = HuggingFaceBgeEmbeddings(model_name=model_name, model_kwargs=model_kwargs, encode_kwargs=encode_kwargs)
LangChain是一个基于Transformer架构的语言模型,它通常用于序列到序列的任务,比如自然语言处理中的文本生成、翻译等。如果你想使用LangChain的本地模型,首先你需要获取一个预训练好的模型权重文件,这通常是一个`.bin`或`.ckpt`格式的文件,包含了模型的参数。 以下是使用LangChain本地模型的基本步骤: 1. **下载模型**:从官方仓库或其他可信来源下载对应语言和任务的LangChain模型。确保模型适合你的应用场景。 2. **加载模型**:在Python环境中,使用LangChain提供的API,如`langchain.load_model`函数,指定模型文件路径来加载模型。 ```python from langchain import load_model model = load_model('path_to_your_model_file') ``` 3. **初始化环境**:创建一个`LanguageModel`实例,并设置适当的超参数,如词嵌入维度、隐藏层大小等。 4. **输入处理**:将文本转换为模型所需的输入格式,通常是序列化成整数或者通过tokenizer进行编码。 5. **预测或推理**:调用模型的`predict`方法,传入输入序列,得到模型对后续序列的预测结果。 ```python input_sequence = ... # 转换后的输入序列 output_sequence = model.predict(input_sequence) ``` 6. **解码结果**:如果需要,把模型预测的结果转回原始文本形式。 注意,具体的步骤可能会因LangChain库的不同版本而有所变化,所以最好查看其最新的文档或示例代码。
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值