自己手写了一个大模型RAG项目-06.使用自己的embedding模型

大家好,我是程序锅。

github上的代码封装程度高,不利于小白学习入门。

常规的大模型RAG框架有langchain等,但是langchain等框架源码理解困难,debug源码上手难度大。

因此,我写了一个人人都能看懂、人人都能修改的大模型RAG框架代码。

整体项目结构如下图所示:手把手教你大模型RAG框架架构

手把手教你大模型RAG框架架构

整个小项目分为10个章节,和github高度封装的RAG代码不同,我们将从0到1搭建大模型RAG问答系统,所有代码均整理放置在Github:ai-app,有需要的朋友自取。

图1.RAG技术路线

上一篇文章,我介绍了通过一个小项目实现了大模型RAG。

本篇文章将介绍6.更换embedding模型.

带大家修改里面的Embedding部分,替换成自己本地部署的Embedding模型,并且尝试多模态和单模态两种方式。

一、Embedding原理介绍

一句话说明白Embedding的原理:用向量来表示对象,并衡量对象之间相关性

1.什么叫做表示对象呢?

我们知道,计算机在处理任何形式的数据时,处理的都是数字,更极端点处理的都是二进制数字。不论是显示图片、文本,还是播放语音、视频,在计算机看来都是数据流。

因此,计算机在处理文本时,只有将文本转换成数字形式才能进行计算,而词嵌入表示就是为了解决这个问题。

这里举一个最简单的例子one-hot编码的概念。

比如,“程序锅讲大模型”这七个字,分别对应“0-6”。由于计算机只能识别"0"和"1",可将每个字表示为"0"和"1"组成的向量,如下图所示。

image

对象表示是没问题了,但是发现一个问题:用one-hot编码向量之间是没关系的。

是否能够很好衡量向量之间的关系,这是衡量一个Embedding模型好坏的关键。

所以,下面我将介绍如何衡量向量之间的关系。

2.衡量向量之间的关系

embedding模型的性质是能使距离相近的向量对应的物体有相近的含义,比如 Embedding(七龙珠)和Embedding(魔人布欧)之间的距离就会很接近,但 Embedding(七龙珠)和Embedding(乱世佳人)的距离就会远一些。

网上常用的向量模型有:word2vec、Bert等。大模型厂商也会用API提供embedding模型,比如ChatGPT、智谱等等。

通过前面的小项目调用智谱GLM4的接口,我们初步了解大模型embedding能干啥。

下面我们将采用paddleNLp的embedding模型,亲自本地化部署并集成到项目中,涉及多模态和单模态两个版本。

paddleNlp Embedding介绍

飞桨(PaddlePaddle)是集深度学习核心框架、工具组件和服务平台为一体的技术先进、功能完备的开源深度学习平台;使用这个平台,你可以轻松构建模型,清洗数据等。

PaddleNLP依赖于PaddlePaddle,它是百度提供的开源工具,提供开箱即用的产业级NLP预置任务能力,无需训练,一键预测。

PaddleNLP EmbeddingPaddleNLP中的一个模块。

PaddleNLP Embedding分为多模态和单模态两个版本,其中多模态适用于图片和文本作为输入,而单模态只适用于文本作为输入。

整体逻辑关系如下所示:

  • 多模态Embedding

多模态学习可以聚合多源数据的信息,使得模型学习到的表示更加完备。以视频分类为例,同时使用字幕标题等文本信息、音频信息和视觉信息的多模态模型要显著好于只使用任意一种信息的单模态模型,这已经被多篇文章实验验证过。

PaddleNLP Embedding中可以使用的多模态模型如下表所示。

模型视觉文本语言
PaddlePaddle/ernie_vil-2.0-base-zh (默认)ViTERNIE中文
OFA-Sys/chinese-clip-vit-base-patch16ViT-B/16RoBERTa-wwm-Base中文
OFA-Sys/chinese-clip-vit-large-patch14ViT-L/14RoBERTa-wwm-Base中文
OFA-Sys/chinese-clip-vit-large-patch14-336pxViT-L/14RoBERTa-wwm-Base中文
  • 单模态Embedding

PaddleNLP Embedding可以使用的单模态模型如下表所示:

模型层数维度语言
rocketqa-zh-dureader-query-encoder12768中文
rocketqa-zh-dureader-para-encoder12768中文
rocketqa-zh-base-query-encoder12768中文
rocketqa-zh-base-para-encoder12768中文
moka-ai/m3e-base12768中文
rocketqa-zh-medium-query-encoder6768中文
rocketqa-zh-medium-para-encoder6768中文
rocketqa-zh-mini-query-encoder6384中文
rocketqa-zh-mini-para-encoder6384中文
rocketqa-zh-micro-query-encoder4384中文
rocketqa-zh-micro-para-encoder4384中文
rocketqa-zh-nano-query-encoder4312中文
rocketqa-zh-nano-para-encoder4312中文
rocketqav2-en-marco-query-encoder12768英文
rocketqav2-en-marco-para-encoder12768英文
ernie-search-base-dual-encoder-marco-en"12768英文

二、Embedding依赖环境安装

首先添加pip源

由于网络环境,建议添加清华的pip源。步骤如下:

1.在C:\User(或者用户)\电脑的用户名\,目录下创建一个命名为pip的文件夹(如:C:\Users\Administrator\pip),在该文件夹下创建一个命名为pip.ini的文件,在该文件中写入以下内容:

[global]
index-url=https://pypi.tuna.tsinghua.edu.cn/simple
[install]
trusted-host=pypi.tsinghua.edu.cn

图1

2.Win+R打开命令行输入cmd,执行以下代码(用于获取镜像源的地址)。

pip config get global.index-url 

image

看到如上截图说明镜像源地址切换完毕。

方式一:安装paddlepaddle CPU相关环境

0.激活conda环境

conda activate RAG

1.这里安装paddlepaddle CPU版本,没GPU也可以在笔记本上本地部署。

python -m pip install paddlepaddle==2.6.0 -i https://pypi.tuna.tsinghua.edu.cn/simple

2.安装paddlenlp

#安装paddlenlp
pip install --upgrade paddlenlp -i https://pypi.tuna.tsinghua.edu.cn/simple

方式二:安装paddlepaddle GPU相关环境

如果有GPU服务器,可以在服务器上部署,建议通过docker部署的方式。

1.拉取预安装 PaddlePaddle 的镜像:

docker pull registry.baidubce.com/paddlepaddle/paddle:2.6.0-gpu-cuda12.0-cudnn8.9-trt8.6

2.用镜像构建并进入Docker容器:

nvidia-docker run --name paddle -it -v $PWD:/paddle registry.baidubce.com/paddlepaddle/paddle:2.6.0-gpu-cuda12.0-cudnn8.9-trt8.6 /bin/bash

3.进入镜像后,安装paddlenlp

#安装paddlenlp
pip install --upgrade paddlenlp -i https://pypi.tuna.tsinghua.edu.cn/simple

4.安装截图
image

三、Embedding测试

文档地址:

https://github.com/PaddlePaddle/PaddleNLP/blob/develop/docs/model_zoo/taskflow.md

多模态Embedding测试

1.新建paddleEmbedding.py,执行如下代码

>>> from paddlenlp import Taskflow
>>> import paddle.nn.functional as F
>>> text_encoder = Taskflow("feature_extraction", model='rocketqa-zh-base-query-encoder')
>>> text_embeds = text_encoder(['春天适合种什么花?','谁有狂三这张高清的?'])
>>> text_features1 = text_embeds["features"]
>>> text_features1
Tensor(shape=[2, 768], dtype=float32, place=Place(gpu:0), stop_gradient=True,
       [[ 0.27640465, -0.13405125,  0.00612330, ..., -0.15600294,
         -0.18932408, -0.03029604],
        [-0.12041329, -0.07424965,  0.07895312, ..., -0.17068857,
          0.04485796, -0.18887770]])
>>> text_embeds = text_encoder('春天适合种什么菜?')
>>> text_features2 = text_embeds["features"]
>>> text_features2
Tensor(shape=[1, 768], dtype=float32, place=Place(gpu:0), stop_gradient=True,
       [[ 0.32578075, -0.02398480, -0.18929179, -0.18639392, -0.04062131,
       ......
>>> probs = F.cosine_similarity(text_features1, text_features2)
>>> probs
Tensor(shape=[2], dtype=float32, place=Place(gpu:0), stop_gradient=True,
       [0.86455142, 0.41222256])

单模态Embedding测试

1.新建paddleEmbedding.py,填入如下代码,执行CUDA_VISIBLE_DEVICES=1 python paddleEmbedding.py

>>> from paddlenlp import Taskflow
>>> import paddle.nn.functional as F
>>> text_encoder = Taskflow("feature_extraction", model='rocketqa-zh-base-query-encoder')
>>> text_embeds = text_encoder(['春天适合种什么花?','谁有狂三这张高清的?'])
>>> text_features1 = text_embeds["features"]
>>> text_features1
Tensor(shape=[2, 768], dtype=float32, place=Place(gpu:0), stop_gradient=True,
       [[ 0.27640465, -0.13405125,  0.00612330, ..., -0.15600294,
         -0.18932408, -0.03029604],
        [-0.12041329, -0.07424965,  0.07895312, ..., -0.17068857,
          0.04485796, -0.18887770]])
>>> text_embeds = text_encoder('春天适合种什么菜?')
>>> text_features2 = text_embeds["features"]
>>> text_features2
Tensor(shape=[1, 768], dtype=float32, place=Place(gpu:0), stop_gradient=True,
       [[ 0.32578075, -0.02398480, -0.18929179, -0.18639392, -0.04062131,
       ......
>>> probs = F.cosine_similarity(text_features1, text_features2)
>>> probs
Tensor(shape=[2], dtype=float32, place=Place(gpu:0), stop_gradient=True,
       [0.86455142, 0.41222256])

Embedding模型集成到现有项目

#embedding = ZhipuEmbedding() # 只需注释原有ZhipuEmbedding类
embedding = PaddleEmbedding(model=embedding_model) # 引用PaddleEmbedding类

四、运行

代码目录结构:

├─images
├─RAG #存放RAG核心代码
└─tutorial
    ├─01.如何调用大模型API
    ├─02.RAG介绍
    ├─03.部署环境准备
    ├─04.知识库构建
    ├─05.基于知识库的大模型问答
    ├─06.改进-用自己的embedding模型
    ├─07.封装镜像对外提供服务
    ├─08.改进-基于Faiss的大模型知识索引构建
    ├─09.改进-使用向量数据库
    └─10.前端构建

打开tutorial文件夹,进入06.改进-用自己的embedding模型

本教程默认采用PaddleNLP中的rocketqa-zh-base-query-encoder单模态embedding方法。

step1:执行python prepare.py,使用rocketqa-zh-base-query-encoder模型完成知识库构建

step2:执行python test.py,基于构建的知识库,开展大模型问答。

最后,我撰写的人工智能应用相关的博客及配套代码均整理放置在Github:ai-app,有需要的朋友自取。

  • 3
    点赞
  • 4
    收藏
    觉得还不错? 一键收藏
  • 1
    评论

“相关推荐”对你有帮助么?

  • 非常没帮助
  • 没帮助
  • 一般
  • 有帮助
  • 非常有帮助
提交
评论 1
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值