从零开始学 langchain 之搭建最小的 RAG 系统

RAG 可以说是 23 年以来到现在,最为火热的大模型应用技术了,很多人都有了很多经典的研究。而对于新人来说,有些代码十分复杂,导致只看表象并不理解其原理。今天,就利用 langchain 和大家一起搭建一个最简单的 RAG 系统,一起来学习一下吧。

langchain 安装

目前,langchain 的版本已经更新到 0.1.X,建议使用最新的稳定版本,不然之前的代码会出现兼容性的问题。

[Retrieval | ️ LangChain]
RAG 原理解析

RAG 的原理已经有很多文章都提到了,这里我们再复习一下,下面是从论文中截取的图,欢迎查看这篇原文。

Retrieval-Augmented Generation for Large Language Models: A Survey

从图中,我们进行进一步的拆解,可以看到,主要分为下面几个步骤:

1、索引建立,将文本数据通过向量化的模型导入到向量数据库进行存储

2、检索,根据用户的输入去检索最相关的 n 个片段

3、生成,将上下文和用户问题拼接成提示词,输入给大模型,得到最后的答案。

索引建立

我们使用 chroma 作为向量数据库去存储用户数据,并调用 BGE 的向量去完成向量化的操作。原始的数据,为了方便展示,使用了 markdown 格式的数据,可以直接用 textloader 进行加载。

详细代码如下:

import os
from langchain.embeddings.huggingface import HuggingFaceBgeEmbeddings
from langchain_community.document_loaders import TextLoader
from langchain.prompts import ChatPromptTemplate
from langchain.text_splitter import RecursiveCharacterTextSplitter
from langchain_community.vectorstores import Chroma
from langchain_core.output_parsers import StrOutputParser
from langchain_core.runnables import RunnablePassthrough
from model_factory import yi_llm

BGE_MODEL_PATH = "BAAI/bge-large-zh"
root_dir = "./zsxq"

def extract_file_dirs(directory):
    file_paths = []
    for root, dirs, files in os.walk(directory):
        for file in files:
            if file.endswith(".md"):
                fp = os.path.join(root, file)
                file_paths.append(fp)
    return file_paths

files = extract_file_dirs(root_dir)
print(files)
loaders = [TextLoader(f) for f in files]

docs = []
for l in loaders:
    docs.extend(l.load())

text_splitter = RecursiveCharacterTextSplitter(chunk_size=150, chunk_overlap=20)
documents = text_splitter.split_documents(docs)
huggingface_bge_embedding = HuggingFaceBgeEmbeddings(model_name=BGE_MODEL_PATH)
vectorstore = Chroma.from_documents(documents, huggingface_bge_embedding, persist_directory="./vectorstore")

query="在知识星球里,怎么快速找到最有价值的内容?"
result = vectorstore.similarity_search(query, k=3)

for doc in result:
    print(doc.page_content)
    print("********")

检索

我们很容易的使用下面这个语句,将向量数据库转为检索器进行使用。然后可以调用检索器的get_relevant_documents 方法去检索得到相似的文本片段,然后就可以使用 langchain 的 LCEL 语言去调用了。

retriever = vectorstore.as_retriever()
docs = retriever.get_relevant_documents(query)

生成

我们首先定义一个简单的提示词,将检索得到的上下文片段和用户的问题进行拼接,然后输入给大模型进行回答。为了方便最后对比各种方法的效果,我们使用了 StrOutputParser 去提取最后输出的文本。

代码如下:

template = """Answer the question based only on the following context:

{context}

Question: {question},请用中文输出答案。
"""
prompt = ChatPromptTemplate.from_template(template)
model = yi_llm

def format_docs(docs):
    return "\n\n".join([d.page_content for d in docs])

chain = (
    {"context": retriever | format_docs, "question": RunnablePassthrough()}
    | prompt
    | model
    | StrOutputParser()
)

response = chain.invoke(query)
print(response)
print(yi_llm.invoke(query))

结果对比

RAG 输出结果

LLM 输出结果

原文

分析,从输出的结果上看,RAG 的输出命中了原文的搜索功能,但是增加了关注订阅,推荐这些原文没有提到的内容,仍然会存在幻觉。

LLM 输出的结果,看起来是对的,但实际上和原文并不相符,应该是用的自己内部的知识,也存在幻觉问题。

我们只是搭建了一个简单的示例,因此,RAG 的结果,是还有待改进的,不能立马满足我们的要求。

总代码

import os
from langchain.embeddings.huggingface import HuggingFaceBgeEmbeddings
from langchain_community.document_loaders import TextLoader
from langchain.prompts import ChatPromptTemplate
from langchain.text_splitter import RecursiveCharacterTextSplitter
from langchain_community.vectorstores import Chroma
from langchain_core.output_parsers import StrOutputParser
from langchain_core.runnables import RunnablePassthrough
from model_factory import yi_llm

BGE_MODEL_PATH = "BAAI/bge-large-zh"
root_dir = "./zsxq"

def extract_file_dirs(directory):
    file_paths = []
    for root, dirs, files in os.walk(directory):
        for file in files:
            if file.endswith(".md"):
                fp = os.path.join(root, file)
                file_paths.append(fp)
    return file_paths

files = extract_file_dirs(root_dir)
print(files)
loaders = [TextLoader(f) for f in files]

docs = []
for l in loaders:
    docs.extend(l.load())

text_splitter = RecursiveCharacterTextSplitter(chunk_size=150, chunk_overlap=20)
documents = text_splitter.split_documents(docs)
huggingface_bge_embedding = HuggingFaceBgeEmbeddings(model_name=BGE_MODEL_PATH)
vectorstore = Chroma.from_documents(documents, huggingface_bge_embedding, persist_directory="./vectorstore")

query="在知识星球里,怎么快速找到最有价值的内容?"
result = vectorstore.similarity_search(query, k=3)

for doc in result:
    print(doc.page_content)
    print("********")

retriever = vectorstore.as_retriever()

template = """Answer the question based only on the following context:

{context}

Question: {question},请用中文输出答案。
"""
prompt = ChatPromptTemplate.from_template(template)
model = yi_llm

def format_docs(docs):
    return "\n\n".join([d.page_content for d in docs])

chain = (
    {"context": retriever | format_docs, "question": RunnablePassthrough()}
    | prompt
    | model
    | StrOutputParser()
)

response = chain.invoke(query)
print("RAG 输出结果:",response)

print("LLM 输出结果:",yi_llm.invoke(query).content)

如何学习AI大模型?

我在一线互联网企业工作十余年里,指导过不少同行后辈。帮助很多人得到了学习和成长。

我意识到有很多经验和知识值得分享给大家,也可以通过我们的能力和经验解答大家在人工智能学习中的很多困惑,所以在工作繁忙的情况下还是坚持各种整理和分享。但苦于知识传播途径有限,很多互联网行业朋友无法获得正确的资料得到学习提升,故此将并将重要的AI大模型资料包括AI大模型入门学习思维导图、精品AI大模型学习书籍手册、视频教程、实战学习等录播视频免费分享出来。

在这里插入图片描述

第一阶段: 从大模型系统设计入手,讲解大模型的主要方法;

第二阶段: 在通过大模型提示词工程从Prompts角度入手更好发挥模型的作用;

第三阶段: 大模型平台应用开发借助阿里云PAI平台构建电商领域虚拟试衣系统;

第四阶段: 大模型知识库应用开发以LangChain框架为例,构建物流行业咨询智能问答系统;

第五阶段: 大模型微调开发借助以大健康、新零售、新媒体领域构建适合当前领域大模型;

第六阶段: 以SD多模态大模型为主,搭建了文生图小程序案例;

第七阶段: 以大模型平台应用与开发为主,通过星火大模型,文心大模型等成熟大模型构建大模型行业应用。

在这里插入图片描述

👉学会后的收获:👈
• 基于大模型全栈工程实现(前端、后端、产品经理、设计、数据分析等),通过这门课可获得不同能力;

• 能够利用大模型解决相关实际项目需求: 大数据时代,越来越多的企业和机构需要处理海量数据,利用大模型技术可以更好地处理这些数据,提高数据分析和决策的准确性。因此,掌握大模型应用开发技能,可以让程序员更好地应对实际项目需求;

• 基于大模型和企业数据AI应用开发,实现大模型理论、掌握GPU算力、硬件、LangChain开发框架和项目实战技能, 学会Fine-tuning垂直训练大模型(数据准备、数据蒸馏、大模型部署)一站式掌握;

• 能够完成时下热门大模型垂直领域模型训练能力,提高程序员的编码能力: 大模型应用开发需要掌握机器学习算法、深度学习框架等技术,这些技术的掌握可以提高程序员的编码能力和分析能力,让程序员更加熟练地编写高质量的代码。

在这里插入图片描述

1.AI大模型学习路线图
2.100套AI大模型商业化落地方案
3.100集大模型视频教程
4.200本大模型PDF书籍
5.LLM面试题合集
6.AI产品经理资源合集

👉获取方式:
😝有需要的小伙伴,可以保存图片到wx扫描二v码免费领取【保证100%免费】🆓

在这里插入图片描述

  • 3
    点赞
  • 8
    收藏
    觉得还不错? 一键收藏
  • 0
    评论

“相关推荐”对你有帮助么?

  • 非常没帮助
  • 没帮助
  • 一般
  • 有帮助
  • 非常有帮助
提交
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值