Langchain 学习与入门
文章平均质量分 82
同步langchain 中开源的功能实现
猫在上海
一同站在巨人的肩膀上。
展开
-
LangChain 入门6 magic不同格式文件的读取
除了原始文本数据,可能还希望从其他文件类型(如PowerPoint演示文稿或PDF)中提取信息。可以使用LangChain文档加载程序将文件解析为可以输入LLM的文本格式。原创 2024-05-01 22:15:13 · 886 阅读 · 2 评论 -
LangChain 入门7 格式化输出
"""从字符串中提取JSON内容,JSON嵌入在```JSON和```标记之间。参数:text(str):包含JSON内容的文本。退货:list:提取的JSON字符串的列表。"""# 定义正则表达式模式以匹配JSON块s)```"# 在字符串中查找模式的所有非重叠匹配# 返回匹配的JSON字符串列表,去掉任何开头或结尾的空格try:从字符串中提取JSON内容,JSON嵌入在```JSON和```标记之间。参数:text(str):包含JSON内容的文本。原创 2024-05-02 13:02:35 · 1755 阅读 · 1 评论 -
LangChain 入门8 加载huggingface模型的案例对比
langchain加载 huggingface模型和ollama 的一些区别在于它们的使用场景、安装部署方式、以及与LangChain的集成方式。Hugging Face模型通常托管在Hugging Face Model Hub上,可以用于多种自然语言处理任务,如文本分类、问答、文本生成等。Ollama专注于运行大型语言模型(LLMs),如Llama 2和Mistral,提供了本地运行这些模型的能力。Hugging Face模型可以通过Hugging Face Hub直接调用,也可以本地安装和运行。原创 2024-05-02 21:33:07 · 1711 阅读 · 1 评论 -
LangChain 入门5 Ollama 美化输出与Function-calling
维基百科API检索器。它将load()包装为get_relevant_documents()。它使用所有WikipediaAPIWrapper参数,没有任何更改。通过分析和验证来自关键字参数的输入数据来创建一个新模型。如果无法解析输入数据以形成有效的模型,则引发ValidationError。结果返回现在我们已经有了一个模型、检索器和提示,让将它们链接在一起。需要添加一些逻辑,将检索到的文档格式化为可以传递给提示的字符串。以便链的同时返回答案和检索到的文档。原创 2024-04-29 18:43:47 · 2252 阅读 · 4 评论 -
LangChain 入门4 RAG链式输出
通常在问答应用程序中,向用户显示用于生成答案的来源是很重要的。最简单的方法是让链返回在每一代中检索到的文档。原创 2024-04-28 12:41:20 · 505 阅读 · 0 评论 -
LangChain入门3 基于历史对话的RAG构建
加载和处理历史对话:首先,需要将历史对话加载到系统中。LangChain 可以使用 ChatMessageHistory 类来记录和处理所有先前的聊天互动。构建独立的检索问题:对于对话中的后续问题,LangChain 可以使用特定的提示模板(如 CONDENSE_QUESTION_PROMPT),将对话历史和最新问题结合起来,形成一个独立的检索问题。检索相关文档:使用检索器(Retriever)从存储中检索与当前问题和历史对话相关联的文档片段。原创 2024-04-27 18:12:21 · 1980 阅读 · 0 评论 -
LangChain入门2 RAG详解
最常见的方法是嵌入每个文档分割的内容,并将这些嵌入插入到矢量数据库(或矢量存储)中。当我们想搜索分割时,我们采用文本搜索查询,嵌入它,并执行某种“相似性”搜索,以识别嵌入与查询嵌入最相似的存储分割。我们将使用LCEL Runnable协议来定义链,使我们能够以透明的方式将组件和函数管道连接在一起,在LangSmith中自动跟踪我们的链,从而获得流式、异步和批量调用。我们想要创建一个简单的应用程序,该应用程序接受用户问题,搜索与该问题相关的文档,将检索到的文档和初始问题传递给模型,并返回答案。原创 2024-04-27 14:28:08 · 1897 阅读 · 0 评论 -
LangChain入门1 构建大模型对话与RAG
本文主要对langchain 的官网内容进行翻译以及进行验证与注释。希望可以对langchain 的学习给到帮助。,有兴趣也可以直接阅读官网。翻译 2024-04-26 22:25:24 · 266 阅读 · 1 评论