基于 InternLM 和 LangChain 搭建你的知识库

大模型开发范式

LLM的局限性:

  • 知识实效性受限:如何让LLM能够获得更新的知识
  • 专业能力有限:如何打造垂直领域大模型
  • 定制化成本高:如何打造个人专属的LLM应用

两种开发范式:
在这里插入图片描述

RAG 检索增强生成

在这里插入图片描述

LangChain简介

LangChain框架是一个开源工具,通过为各种LLM提供通用接口来简化应用程序的开发流程,帮助开发者自由构建LLM应用。
LangChain的核心组成模块:

  • 链:将组件组合实现端到端应用,通过一个对象封装实现一系列LLM操作
  • Eg.检索问答链:覆盖实现了GAR(增强检索生成)的全部流程
    在这里插入图片描述

构建向量数据库

  • 加载源文件
    确定源文件类型,针对不同类型源文件选用不同的加载器,核心在于将带格式文本转化为无格式字符串
  • 文档分块
    由于单个文档往往超过了模型上下文上限,我们需要对加载的文档进行切分
    一般按字符串长度进行分割
    可以手动控制分割块的长度和重叠区间的长度
  • 文档向量化
    使用向量数据库来支持语义检索,需要将文档向量化存入向量数据库
    可以使用任一一种Embedding模型来进行向量化
    可以使用多种支持语义检索的向量数据库,一般使用轻量级的Chroma

搭建知识库助手

将InternLM接入LangChain
在这里插入图片描述
基于RAG的问答系统性能核心受限于:

  • 检索精度
  • Prompt性能
    一些可能优化的点:
  • 检索方面:
    • 基于语义进行分割,保证每一个chunk的语义完整
    • 给每个chunk生成概括性索引,检索时匹配索引
  • Prompt方面
    • 迭代优化Prompt策略

Web Demo部署

有很多支持简易web部署的框架,如Gradio、Streamlit等

环境配置

在环境中安装运行 demo 所需要的依赖

# 升级pip
python -m pip install --upgrade pip

pip install modelscope==1.9.5
pip install transformers==4.35.2
pip install streamlit==1.24.0
pip install sentencepiece==0.1.99
pip install accelerate==0.24.1

在 /root 路径下新建目录 data,在目录下新建 download.py 文件并在其中输入以下内容,粘贴代码后记得保存文件,如下图所示。并运行 python /root/data/download.py 执行下载,模型大小为 14 GB,下载模型大概需要 10~20 分钟.
在这里插入图片描述

下载 NLTK 相关资源

我们在使用开源词向量模型构建开源词向量的时候,需要用到第三方库 nltk 的一些资源。正常情况下,其会自动从互联网上下载,但可能由于网络原因会导致下载中断,此处我们可以从国内仓库镜像地址下载相关资源,保存到服务器上。

cd /root
git clone https://gitee.com/yzy0612/nltk_data.git  --branch gh-pages
cd nltk_data
mv packages/*  ./
cd tokenizers
unzip punkt.zip
cd ../taggers
unzip averaged_perceptron_tagger.zip

下载本项目代码

cd /root/data
git clone https://github.com/InternLM/tutorial
  • 18
    点赞
  • 18
    收藏
    觉得还不错? 一键收藏
  • 0
    评论

“相关推荐”对你有帮助么?

  • 非常没帮助
  • 没帮助
  • 一般
  • 有帮助
  • 非常有帮助
提交
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值