为你的 LLM 选择合适的 RAG 框架:LlamaIndex 或 LangChain

在这里插入图片描述

大语言模型 (LLM) 是这个时代最顶尖的新兴 AI 技术之一。早在 2022 年 11 月,OpenAI 就发布了自己的生成式 AI 聊天机器人,这在人们中引起了很多关于此类尖端技术应用的关注和兴奋。在看到 ChatGPT 的奇迹后不久,企业、开发人员和个人都想要他们自己的定制版 ChatGPT。这导致对促进 Gen AI 模型的开发、集成和管理的工具/框架的需求激增。

面对如此巨大的市场空白,有两个知名框架占据了主导地位:LlamaIndex 和 LangChain。然而,这两个框架的目标都是帮助开发人员创建自己的自定义 LLM 应用程序。每个框架都有自己的优点和缺点。这篇文章的目的是揭示 LlamaIndex 和 LangChain 之间的主要区别,帮助您根据特定用例选择合适的框架。

LlamaIndex 简介

在这里插入图片描述

LlamaIndex 流程

LlamaIndex 是一个框架,旨在根据您自己的自定义数据索引和查询 LLM。它支持通过各种来源连接数据,例如结构化数据(如关系数据库)、非结构化数据(如 NoSQL 数据库)和半结构化数据(如 Salesforce CRM 数据)。

虽然您的数据是专有的,但它可以被索引到最先进的 LLM 可以理解的嵌入中,从而无需再次重新训练模型。

LlamaIndex 如何运作?

在这里插入图片描述

LlamaIndex 架构

LlamaIndex 促进了 LLM 的更高层次定制​。它获取您的专有数据并将其嵌入内存,从而使模型在提供基于上下文的响应方面逐渐变得更好。LlamaIndex 将大型语言模型转变为领域知识专家;它可以充当 AI 助手或对话聊天机器人,根据事实来源回答您的查询(例如,包含业务特定信息的 PDF 文档,只有销售副总裁才能回答)。

为了根据专有数据定制 LLM,LlamaIndex 使用了一种称为检索增强生成 (RAG) 的技术。RAG 主要包括两个关键阶段:

1.索引阶段:专有数据被有效地转换为向量索引。在索引阶段,数据被转换为具有语义的向量嵌入或数值表示。

2.查询阶段:在此阶段,每当系统被查询时,语义相似度最高的查询都会以信息块的形式返回。这些信息块与原始提示查询相结合,发送到 LLM 以获得最终响应。借助这种机制,RAG 可用于生成高度准确且相关的输出,而这在 LLM 的基础知识中是不可能实现的。

开始使用 LlamaIndex

首先,开始安装 llama-index:

pip install llama-index 

您需要一个 OpenAI API 密钥才能使用 OpenAI 的 LLM。获取密钥后,请将其设置到您的 .env 文件中,如下所示:

import os
os.environ["OPENAI_API_KEY"] = "your_api_key_here"

从此我们可以开始使用 LlamaIndex 进行构建!请参阅LlamaIndex 文档以获取更多示例、指南和用例。

使用 LlamaIndex 构建 QnA 应用程序

为了现场演示 LlamaIndex 的功能,我将进行代码演示,开发一个可以根据您的自定义文档回答查询的 QnA 应用程序。

让我们开始安装所有必要的依赖项:

pip install llama-index openai nltk

接下来,使用 LlamaIndex 函数加载文档SimpleDirectoryReader并开始构建索引:

from llama_index.core import ( 
    VectorStoreIndex, 
    SimpleDirectoryReader 
) 

# 在 SDR 函数内部定义路径,然后建立索引
documents = SimpleDirectoryReader( "docs" ).load_data() 
index = VectorStoreIndex.from_documents(documents,show_progress= True )

在“docs”文件夹中,我上传了我的 Python 课程资格详细信息的 PDF:

查询索引并检查响应:

# Query engine
query_engine = index.as_query_engine()

response = query_engine.query("If i miss my assignments and projects, 
what grade and percentage will i end up with?")
print(response)

在这里插入图片描述

使用 LlamaIndex 构建的 LLM 响应(RAG 文档参考:
document-chat-bot/docs/CPSC-50300–001-SU23.docx at master · huda-code/document-chat-bot (github.com))

查询引擎将搜索数据索引并返回相关片段作为响应。

我们还可以通过修改函数把这个查询引擎变成一个有记忆的聊天引擎:

chat_engine = index.as_chat_engine()
response = chat_engine.chat("If i miss my assignments and projects, 
what grade and percentage will i end up with?")
print(response)
follow_up = chat_engine.chat("And if i only miss my projects, 
then what grade would i get?")
print(follow_up)

为了避免每次重建索引,可以将其保存到磁盘:

index.storage_context.persist()

稍后再加载:

from llama_index.core import (
    StorageContext,
    load_index_from_storage,
)

storage_context = StorageContext.from_defaults(persist_dir="./storage")
index = load_index_from_storage(storage_context)

上面显示的代码是部署到 hugging face 空间的 QnA 聊天机器人 Gradio 应用程序的一部分。

LangChain简介

在这里插入图片描述

LangChain工艺

LangChain 是另一个用于根据自定义数据源构建定制 LLM 的框架。LangChain 可以连接来自各种来源的数据,例如关系数据库(如表格数据)、非关系数据库(如文档)、程序源(如 API),甚至自定义知识库。

LangChain 利用一种形成链的机制,该链只不过是向 LLM 和其他集成工具发送的一长串请求,其中一个步骤的输出被向前反馈成为下一个步骤的输入。

LangChain 处理您的专有数据,并确保将相关上下文提供给 LLM,以便生成适当的响应。无论是针对公司数据的自定义 QNA 聊天机器人、内部分析工具,还是与您的数据源配合使用的 AI 助手。LangChain 内置了链接机制,可帮助开发人员将其他工具集成到 LLM 应用程序中并将它们链接在一起,这有助于构建更全面的系统。

LangChain 如何运作?

在这里插入图片描述

Langchain 架构(来源:owned)

LangChain 有以下相关组件:

1.提示是我们给予模型的推动,以获得所需的输出/响应。
2.LangChain 为用户提供了一个界面,他们可以在其中即时更改语言模型。并且可以轻松地在它们之间进行切换。Langchain 设施与一些最新的 LLM 配合使用,例如 GPT-4、Gemini 1.5 pro、Hugging Face LLM、Claude 3 等。
3.LangChain 利用嵌入、内存向量存储等索引技术。
4.LangChain 可以轻松链接各种组件。
5.LangChain 提供一系列 AI 代理,帮助用户为其分配任务和工具。

开始使用 LangChain

开始使用 LangChain 进行构建的第一步是安装包LangChain:

pip install langchain

对于本 LangChain 教程,我们将使用 cohere API 密钥。使用文件内的 API 密钥设置 cohere 环境变量.env:

import os
os.environ["cohere_apikey"] = "your_api_key_here"

从此我们就可以开始使用 LangChain 进行构建了!请参阅LangChain 文档,获取更详细的示例、指南和用例。

如果您想继续探索 LangChain 生态系统,请导航至Langchain Hub以找到开发人员社区及其数据连接器、工具和框架,您可以将它们与您的 LLM 工作流程集成。

使用 LangChain 构建 QnA 应用程序

为了现场演示 Langchain 的功能,我将进行代码演示,开发一个可以根据您的自定义文档回答查询的 QnA 应用程序。

第一步是安装所有依赖项:

pip install langchain cohere chromadb ## instead of openai's LLM we'll' go for cohere

然后加载并创建文档数据的索引。我们还将使用连贯嵌入生成嵌入:

from langchain.document_loaders import OnlinePDFLoader
from langchain.vectorstores import Chroma
from langchain.embeddings import CohereEmbeddings
from langchain.text_splitter import RecursiveCharacterTextSplitter


loader = OnlinePDFLoader(document)
documents = loader.load()

# Initialzing Text Splitter
text_splitter = RecursiveCharacterTextSplitter(chunk_size=chunksize,chunk_overlap=10,
   separators=[" ", ",", "\n"])

# Intializing Cohere Embdedding
embeddings = CohereEmbeddings(model="large", cohere_api_key=st.secrets["cohere_apikey"])

    
texts = text_splitter.split_documents(documents)
global db
db = Chroma.from_documents(texts, embeddings)
retriever = db.as_retriever()
global qa

查询索引并检查响应:

query = "Compare indian constitution's approach to secularism with 
that of other countries?"
result = db.query(query)
print(result)

在这里插入图片描述

使用 Langchain 构建的 LLM 响应(RAG 文档参考:COI…pdf(legislative.gov.in))

查询将从语义上搜索数据并检索对查询的适当响应。

如果您愿意,可以RetrievalQA通过 langchain 使用模块进行链接,这里我们也将使用 cohere 的 LLM:

from langchain.llms import Cohere
from langchain.chains import RetrievalQA


qa = RetrievalQA.from_chain_type(
        llm=Cohere(
            model="command-xlarge-nightly",
            temperature=temp_r,
            cohere_api_key=st.secrets["cohere_apikey"],
        ),
        chain_type="stuff",
        retriever=retriever,
        return_source_documents=True,
        chain_type_kwargs=chain_type_kwargs,
    )

上面显示的代码是 QnA Streamlit 应用程序的一部分。源代码和数据集可在此处获取。

LlamaIndex 与 LangChain 的最佳用例

LlamaIndex:

  • 构建具有特定知识库的基于查询和搜索的信息检索系统。
  • 开发一个 QnA 聊天机器人,可以仅提供相关信息块作为对用户查询的响应。
  • 大型文档摘要、文本补全、语言翻译等

LangChain:

  • 构建端到端对话聊天机器人和 AI 代理
  • 将自定义工作流程集成到 LLMs中
  • 通过 API 和其他数据源扩展 LLMs的数据连接选项。

Langchain 和 LlamaIndex 的组合用例:(

在这里插入图片描述

(来源:LlamaIndex:如何正确使用索引 | 作者:Ryan Nguyen | 更好的编程)

  • 构建专家 AI 代理:LangChain 可以整合多种数据源,而 LlamaIndex 可以利用相似的语义搜索功能来策划、总结并生成更快的响应。
  • 先进的研发工具:使用 LangChain 的链接来同步管理工具和工作流程,同时使用 LlamaIndex 有助于生成更具情境感知的 LLM 并获得最相关的响应。

LlamaIndex 与 LangChain:选择正确的框架

在这里插入图片描述

LLamaIndex 与 Langchain 比较(来源:
https://youtu.be/1eym7BTnuNg)

在选择正确的框架之前,需要提出以下几个重要问题:

  • **项目要求是什么?**对于基本功能:索引、查询搜索和检索应用程序,我们可以选择 LlamaIndex。但是对于需要集成自定义工作流的应用程序,LangChain 是更好的选择。
  • **使用起来是否简单易用?**虽然 LlamaIndex 提供了更简单的界面,但 LangChain 需要更深入地了解 NLP 概念和组件。
  • 你想做多少定制? LangChain 采用模块化设计,可以轻松进行定制和工具集成,而 LlamaIndex 更像是一个基于搜索和检索的框架。
    在这里插入图片描述

LLamaIndex 与 Langchain 的关键因素(来源:选择 RAG 框架:Langchain 或 LlamaIndex | 作者 Xally AI Lab | Medium)

结论

对于想要构建自定义 LLM 应用程序的开发人员来说,LlamaIndex 和 LangChain 都是非常有用的框架。LlamaIndex 的独特卖点具有出色的搜索和检索功能,为用户提供了简化的索引和查询解决方案。LangChain 的独特卖点是其模块化设计以及与 LLM 领域中各种工具和组件的可集成性。

如果你在两者之间难以抉择,那么可以考虑问自己一些问题,例如项目要求是什么?使用起来是否简单易用?你想进行多少定制?

如果您想在更广泛的框架中使用多种工具,LangChain是最适合的。例如,具备多任务处理能力的AI智能代理

但是,如果您的目标是构建智能搜索和检索系统,那么就选择LlamaIndex吧。它的强大之处在于索引和检索信息,因此使用LlamaIndex可以为 LLM构建深度数据探索应用程序

最后请记住,这不是一个经典的案例,在现实世界中,您可以实现一个系统,其架构可能包含两个框架,每个框架都发挥着自己独特的作用。

如何学习大模型 AI ?

由于新岗位的生产效率,要优于被取代岗位的生产效率,所以实际上整个社会的生产效率是提升的。

但是具体到个人,只能说是:

“最先掌握AI的人,将会比较晚掌握AI的人有竞争优势”。

这句话,放在计算机、互联网、移动互联网的开局时期,都是一样的道理。

我在一线互联网企业工作十余年里,指导过不少同行后辈。帮助很多人得到了学习和成长。

我意识到有很多经验和知识值得分享给大家,也可以通过我们的能力和经验解答大家在人工智能学习中的很多困惑,所以在工作繁忙的情况下还是坚持各种整理和分享。但苦于知识传播途径有限,很多互联网行业朋友无法获得正确的资料得到学习提升,故此将并将重要的AI大模型资料包括AI大模型入门学习思维导图、精品AI大模型学习书籍手册、视频教程、实战学习等录播视频免费分享出来。

在这里插入图片描述

第一阶段(10天):初阶应用

该阶段让大家对大模型 AI有一个最前沿的认识,对大模型 AI 的理解超过 95% 的人,可以在相关讨论时发表高级、不跟风、又接地气的见解,别人只会和 AI 聊天,而你能调教 AI,并能用代码将大模型和业务衔接。

  • 大模型 AI 能干什么?
  • 大模型是怎样获得「智能」的?
  • 用好 AI 的核心心法
  • 大模型应用业务架构
  • 大模型应用技术架构
  • 代码示例:向 GPT-3.5 灌入新知识
  • 提示工程的意义和核心思想
  • Prompt 典型构成
  • 指令调优方法论
  • 思维链和思维树
  • Prompt 攻击和防范

第二阶段(30天):高阶应用

该阶段我们正式进入大模型 AI 进阶实战学习,学会构造私有知识库,扩展 AI 的能力。快速开发一个完整的基于 agent 对话机器人。掌握功能最强的大模型开发框架,抓住最新的技术进展,适合 Python 和 JavaScript 程序员。

  • 为什么要做 RAG
  • 搭建一个简单的 ChatPDF
  • 检索的基础概念
  • 什么是向量表示(Embeddings)
  • 向量数据库与向量检索
  • 基于向量检索的 RAG
  • 搭建 RAG 系统的扩展知识
  • 混合检索与 RAG-Fusion 简介
  • 向量模型本地部署

第三阶段(30天):模型训练

恭喜你,如果学到这里,你基本可以找到一份大模型 AI相关的工作,自己也能训练 GPT 了!通过微调,训练自己的垂直大模型,能独立训练开源多模态大模型,掌握更多技术方案。

到此为止,大概2个月的时间。你已经成为了一名“AI小子”。那么你还想往下探索吗?

  • 为什么要做 RAG
  • 什么是模型
  • 什么是模型训练
  • 求解器 & 损失函数简介
  • 小实验2:手写一个简单的神经网络并训练它
  • 什么是训练/预训练/微调/轻量化微调
  • Transformer结构简介
  • 轻量化微调
  • 实验数据集的构建

第四阶段(20天):商业闭环

对全球大模型从性能、吞吐量、成本等方面有一定的认知,可以在云端和本地等多种环境下部署大模型,找到适合自己的项目/创业方向,做一名被 AI 武装的产品经理。

  • 硬件选型
  • 带你了解全球大模型
  • 使用国产大模型服务
  • 搭建 OpenAI 代理
  • 热身:基于阿里云 PAI 部署 Stable Diffusion
  • 在本地计算机运行大模型
  • 大模型的私有化部署
  • 基于 vLLM 部署大模型
  • 案例:如何优雅地在阿里云私有部署开源大模型
  • 部署一套开源 LLM 项目
  • 内容安全
  • 互联网信息服务算法备案

学习是一个过程,只要学习就会有挑战。天道酬勤,你越努力,就会成为越优秀的自己。

如果你能在15天内完成所有的任务,那你堪称天才。然而,如果你能完成 60-70% 的内容,你就已经开始具备成为一名大模型 AI 的正确特征了。

这份完整版的大模型 AI 学习资料已经上传CSDN,朋友们如果需要可以微信扫描下方CSDN官方认证二维码免费领取【保证100%免费

在这里插入图片描述

  • 10
    点赞
  • 15
    收藏
    觉得还不错? 一键收藏
  • 0
    评论
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值