拥抱大模型时代:LangChain 框架快速入门指南

安装LangChain

要安装 LangChain,请运行:

Pip

代码语言:javascript

pip install langchain

Conda

代码语言:javascript

conda install langchain -c conda-forge

更多详情,请查看我们的安装指南。

环境设置

使用 LangChain 通常需要与一个或多个模型提供商、数据存储、API等集成。对于这个例子,我们将使用OpenAI的模型API。

首先,我们需要安装OpenAI的Python包:

代码语言:javascript

pip install openai

访问API需要一个API密钥,您可以通过创建一个帐户并前往这里来获取。获取api密钥后,我们就可以通过运行以下命令将其设置为环境变量:

代码语言:javascript

export OPENAI_API_KEY="..."

如果您不想设置环境变量,也可以通过在初始化OpenAI LLM类时的openai_api_key命名参数直接传入密钥:

代码语言:javascript

from langchain.llms import OpenAI

llm = OpenAI(openai_api_key="...")

构建应用程序

现在我们可以开始构建语言模型应用程序了。LangChain提供了许多模块来构建语言模型应用程序。模块可以作为简单应用程序中的独立部分使用,也可以组合用于更复杂的用例。

LangChain应用程序的核心构建块是LLMChain。这结合了以下三个组件:

  • LLM:语言模型是这里的核心推理引擎。为了使用 LangChain,您需要了解不同类型的语言模型以及如何使用它们。
  • 提示模板(Prompt Templates):这为语言模型提供说明。这控制语言模型输出的内容,因此了解如何构造提示和不同的提示策略至关重要。
  • 输出解析器(Output Parsers):这些将来自LLM的原始响应转换为更可行的格式,从而可以轻松使用下游的输出。

在本入门指南中,我们将分别介绍三个重要组件,即LLM、提示和LangChain。掌握这些概念将有助于您在使用和自定义LangChain应用程序时更加得心应手。值得注意的是,许多LangChain应用程序都允许您自定义LLM和/或使用提示,因此熟练掌握这些技巧将是成功应用LangChain的重要因素之一。

语言模型(Language Models)

在 LangChain 中有两种语言模型,分别是大语言模型LLMs 和聊天模型 ChatModels。

LangChain的基本构建模块是LLM,它将字符串作为输入并返回一个字符串。

代码语言:javascript

from langchain.llms import OpenAI

而聊天模型是语言模型的变体。虽然聊天模型在底层使用语言模型,但它们暴露的接口有点不同:它们没有暴露“文本输入,文本输出”的API,而是将聊天消息(ChatMessage)列表作为输入和输出。

您可以通过向聊天模型传递一个或多个消息来获取聊天补全,响应将是一个消息。LangChain目前支持的消息类型有AIMessageHumanMessageSystemMessageChatMessage - ChatMessage接受一个任意的角色参数。大多数时候,您只需要处理HumanMessageAIMessageSystemMessage

代码语言:javascript

from langchain.chat_models import ChatOpenAI
from langchain.schema import (
    AIMessage,
    HumanMessage,
    SystemMessage
)

现在假设我们正在构建一个应用程序,可以根据公司的描述自动生成公司名称。为了让生成的公司名称更加随机,我们需要初始化模型封装器,并使用高温度的参数来进行初始化,这将确保我们生成的名称更具创造性和多样性。

代码语言:javascript

llm = OpenAI(temperature=0.9)
chat = ChatOpenAI(temperature=0.9)

LangChain 为两者公开了一个标准接口,但了解这种差异以便为给定语言模型构造提示很有用。LangChain 公开的标准接口有两种方法:

  • predict :接受字符串,返回字符串。
  • predict_messages :接收消息列表,返回消息。

现在我们可以传入文本并获得预测了:

代码语言:javascript

text = "What would be a good company name for a company that makes colorful socks?"

llm.predict(text)
# '\n\nLivelySox.'

chat.predict(text)
# 'VividSocks'

最后,让我们使用 predict_messages 该方法运行消息列表。

代码语言:javascript

chat_messages = [HumanMessage(content="What would be a good company name for a company that makes colorful socks?")]

llm.predict_messages(chat_messages)
# AIMessage(content='\n\nFancyFeets', additional_kwargs={}, example=False)

chat.predict_messages(chat_messages)
# AIMessage(content='Rainbow Feet', additional_kwargs={}, example=False)

对于这两种方法,还可以将参数作为关键字参数传入。例如,您可以传入 temperature=0 以根据对象的配置调整使用的温度。在运行时传入的任何值都将始终覆盖对象配置的内容。

代码语言:javascript

llm.predict(text=text,temperature=0)
# '\n\nRainbow Socks Co.'

chat.predict(text=text,temperature=0)
# 'VibrantSox'

llm.predict_messages(messages=chat_messages,temperature=0)
# AIMessage(content='\n\nSocktastic!', additional_kwargs={}, example=False)

chat.predict_messages(messages=chat_messages,temperature=0)
# AIMessage(content='VibrantSock Co.', additional_kwargs={}, example=False)

提示模板(Prompt Template)

大多数LLM应用程序不会将用户输入直接传入LLM。它们通常会将用户输入添加到一个更大的文本片段中,称为提示模板(Prompt Template),以提供有关特定任务的附加上下文。

在之前的示例中,我们传递给模型的文本包含生成公司名称的说明。对于我们的应用程序,最好的是用户只需要提供公司/产品的描述,而不必担心向模型提供说明。

提示模板捆绑了从用户输入到完全格式化的提示的所有逻辑,使用PromptTemplate非常容易:

代码语言:javascript

from langchain.prompts import PromptTemplate

# prompt模板
prompt = PromptTemplate.from_template("What is a good name for a company that makes {product}?")

# 通过模板变量渲染模板
prompt.format(product="colorful socks")

# 'What is a good name for a company that makes colorful socks?'

提示模板还可以用于生成消息列表。在这种情况下,提示不仅包含有关内容的信息,还包含每条消息在列表中的位置等信息。最常见的是聊天提示模板,它是一个聊天消息模板列表,每个模板都包含有关如何格式化该聊天消息的说明,包括其角色和内容。

您可以通过使用MessagePromptTemplate来利用模板。您可以从一个或多个MessagePromptTemplate构建一个ChatPromptTemplate。您可以使用ChatPromptTemplateformat_messages方法来生成格式化的消息。

因为这是生成一系列消息,所以它比只生成一个字符串的正常提示模板稍微复杂一些。聊天提示模板还可以包括聊天消息模板以外的其他内容,在后续篇章中会详细讲解。

代码语言:javascript

from langchain.prompts.chat import (
    ChatPromptTemplate,
    SystemMessagePromptTemplate,
    HumanMessagePromptTemplate,
)

# 定义模板
template = "You are a helpful assistant that translates {input_language} to {output_language}."
system_message_prompt = SystemMessagePromptTemplate.from_template(template)
human_template = "{text}"
human_message_prompt = HumanMessagePromptTemplate.from_template(human_template)

chat_prompt = ChatPromptTemplate.from_messages([system_message_prompt,human_message_prompt])
# 设置模板变量值
chat_prompt.format_messages(input_language="English", output_language="French", text="I love programming.")
[
    SystemMessage(content="You are a helpful assistant that translates English to French.", additional_kwargs={}),
    HumanMessage(content="I love programming.")
]

输出解析器(Output Parsers)

输出解析器将LLM的原始输出转换为可以在下游使用的格式。输出分析器的主要类型很少,包括:

  • 将文本从LLM转换为结构化信息,如JSON、List、时间日期等。
  • 将聊天信息转换为字符串。
  • 将调用返回的额外信息转换为字符串,而不是消息(如 OpenAI 函数调用)。

下面我们使用一个列表解析器作为例子,它可以将模型返回的文本解析成列表输出:

代码语言:javascript

from langchain.output_parsers import CommaSeparatedListOutputParser

output_parser = CommaSeparatedListOutputParser()

format_instructions = output_parser.get_format_instructions()
prompt = PromptTemplate(
    template="List 5 {subject}.\n{format_instructions}",
    input_variables=["subject"],
    partial_variables={"format_instructions": format_instructions}
)

model = OpenAI(temperature=0)

_input = prompt.format(subject="country names")
output = model(_input)

output_parser.parse(output)

# ['China', 'India', 'United States', 'Brazil', 'Japan']

任务链(Chains)

现在我们已经有了一个模型和一个提示模板,我们将想要将两者组合起来。链(Chain)为我们提供了一种将(或链式地)多个基础模块(如模型、提示和其他链)链接起来的方式。

最简单也最常见的链类型是LLMChain,它首先将输入传递给一个PromptTemplate,然后传递给一个LLM。我们可以从现有的模型和提示模板构造一个LLM链。

直接使用llm的例子:

代码语言:javascript

llm.predict("What would be a good company name for a company that makes colorful socks?")

使用LLMChain的等价例子:

代码语言:javascript

from langchain.chains import LLMChain

prompt = PromptTemplate.from_template("What is a good name for a company that makes {product}?")
chain = LLMChain(llm=llm, prompt=prompt)
chain.run("colorful socks")

# '\n\nBrightly Toed Socks.'

这是我们的第一个链,理解这个简单链的工作原理会很好地为使用更复杂的链做准备。

LLMChain也可以与聊天模型一起使用:

代码语言:javascript

from langchain import LLMChain
from langchain.chat_models import ChatOpenAI
from langchain.prompts.chat import (
    ChatPromptTemplate,
    SystemMessagePromptTemplate,
    HumanMessagePromptTemplate,
)

chat = ChatOpenAI(temperature=0)

template = "You are a helpful assistant that translates {input_language} to {output_language}."
system_message_prompt = SystemMessagePromptTemplate.from_template(template)
human_template = "{text}"  
human_message_prompt = HumanMessagePromptTemplate.from_template(human_template)
chat_prompt = ChatPromptTemplate.from_messages([system_message_prompt, human_message_prompt])

chain = LLMChain(llm=chat, prompt=chat_prompt)
chain.run(input_language="English", output_language="French", text="I love programming.")

# "J'adore la programmation."

我们可以将语言模型、提示模板和输出解析器组合成一个流畅的链。该链首先接收输入变量,并将这些变量传递给提示模板以生成提示。然后,这些提示将被传递给语言模型进行分析和预测。最后,通过(可选)输出分析器,将输出结果传递给用户。这种模块化的链条结构使得这一流程更加高效和方便。

代码语言:javascript

from langchain.chat_models import ChatOpenAI
from langchain.prompts.chat import (
    ChatPromptTemplate,
    SystemMessagePromptTemplate,
    HumanMessagePromptTemplate,
)
from langchain.chains import LLMChain
from langchain.schema import BaseOutputParser

class CommaSeparatedListOutputParser(BaseOutputParser):
    """Parse the output of an LLM call to a comma-separated list."""


    def parse(self, text: str):
        """Parse the output of an LLM call."""
        return text.strip().split(", ")

template = """You are a helpful assistant who generates comma separated lists.
A user will pass in a category, and you should generate 5 objects in that category in a comma separated list.
ONLY return a comma separated list, and nothing more."""
system_message_prompt = SystemMessagePromptTemplate.from_template(template)
human_template = "{text}"
human_message_prompt = HumanMessagePromptTemplate.from_template(human_template)

chat_prompt = ChatPromptTemplate.from_messages([system_message_prompt, human_message_prompt])
chain = LLMChain(
    llm=ChatOpenAI(),
    prompt=chat_prompt,
    output_parser=CommaSeparatedListOutputParser()
)
chain.run("colors")
# >> ['red', 'blue', 'green', 'yellow', 'orange']

小结

本文介绍了关于LangChain安装和环境设置,包括可以通过运行pip、conda命令进行安装,以及 OpenAI的Python包和获取API密钥。

接下来,文章介绍了构建LangChain应用程序的核心构建块,包括LLM、提示模板和输出解析器。然后,文章介绍了两种语言模型:大语言模型和聊天模型,并给出了使用LangChain构建一个根据公司描述自动生成公司名称的示例。

同时,文章介绍了提示模板和输出解析器的概念,并给出了一些例子。

最后,介绍了LLM、提示模板和输出解析器组合成链例子。

现在我们已经掌握了如何创建 LangChain 应用程序的核心构建块 LLMChain,这是开发所有应用程序的基础。

如何学习大模型 AI ?

由于新岗位的生产效率,要优于被取代岗位的生产效率,所以实际上整个社会的生产效率是提升的。

但是具体到个人,只能说是:

“最先掌握AI的人,将会比较晚掌握AI的人有竞争优势”。

这句话,放在计算机、互联网、移动互联网的开局时期,都是一样的道理。

我在一线互联网企业工作十余年里,指导过不少同行后辈。帮助很多人得到了学习和成长。

我意识到有很多经验和知识值得分享给大家,也可以通过我们的能力和经验解答大家在人工智能学习中的很多困惑,所以在工作繁忙的情况下还是坚持各种整理和分享。但苦于知识传播途径有限,很多互联网行业朋友无法获得正确的资料得到学习提升,故此将并将重要的AI大模型资料包括AI大模型入门学习思维导图、精品AI大模型学习书籍手册、视频教程、实战学习等录播视频免费分享出来。

😝有需要的小伙伴,可以点击下方链接免费领取或者V扫描下方二维码免费领取🆓

在这里插入图片描述

AGI大模型.jpg

第一阶段(10天):初阶应用

该阶段让大家对大模型 AI有一个最前沿的认识,对大模型 AI 的理解超过 95% 的人,可以在相关讨论时发表高级、不跟风、又接地气的见解,别人只会和 AI 聊天,而你能调教 AI,并能用代码将大模型和业务衔接。

  • 大模型 AI 能干什么?
  • 大模型是怎样获得「智能」的?
  • 用好 AI 的核心心法
  • 大模型应用业务架构
  • 大模型应用技术架构
  • 代码示例:向 GPT-3.5 灌入新知识
  • 提示工程的意义和核心思想
  • Prompt 典型构成
  • 指令调优方法论
  • 思维链和思维树
  • Prompt 攻击和防范

第二阶段(30天):高阶应用

该阶段我们正式进入大模型 AI 进阶实战学习,学会构造私有知识库,扩展 AI 的能力。快速开发一个完整的基于 agent 对话机器人。掌握功能最强的大模型开发框架,抓住最新的技术进展,适合 Python 和 JavaScript 程序员。

  • 为什么要做 RAG
  • 搭建一个简单的 ChatPDF
  • 检索的基础概念
  • 什么是向量表示(Embeddings)
  • 向量数据库与向量检索
  • 基于向量检索的 RAG
  • 搭建 RAG 系统的扩展知识
  • 混合检索与 RAG-Fusion 简介
  • 向量模型本地部署

第三阶段(30天):模型训练

恭喜你,如果学到这里,你基本可以找到一份大模型 AI相关的工作,自己也能训练 GPT 了!通过微调,训练自己的垂直大模型,能独立训练开源多模态大模型,掌握更多技术方案。

到此为止,大概2个月的时间。你已经成为了一名“AI小子”。那么你还想往下探索吗?

  • 为什么要做 RAG
  • 什么是模型
  • 什么是模型训练
  • 求解器 & 损失函数简介
  • 小实验2:手写一个简单的神经网络并训练它
  • 什么是训练/预训练/微调/轻量化微调
  • Transformer结构简介
  • 轻量化微调
  • 实验数据集的构建

第四阶段(20天):商业闭环

对全球大模型从性能、吞吐量、成本等方面有一定的认知,可以在云端和本地等多种环境下部署大模型,找到适合自己的项目/创业方向,做一名被 AI 武装的产品经理。

  • 硬件选型
  • 带你了解全球大模型
  • 使用国产大模型服务
  • 搭建 OpenAI 代理
  • 热身:基于阿里云 PAI 部署 Stable Diffusion
  • 在本地计算机运行大模型
  • 大模型的私有化部署
  • 基于 vLLM 部署大模型
  • 案例:如何优雅地在阿里云私有部署开源大模型
  • 部署一套开源 LLM 项目
  • 内容安全
  • 互联网信息服务算法备案

学习是一个过程,只要学习就会有挑战。天道酬勤,你越努力,就会成为越优秀的自己。

如果你能在15天内完成所有的任务,那你堪称天才。然而,如果你能完成 60-70% 的内容,你就已经开始具备成为一名大模型 AI 的正确特征了。

这份完整版的大模型 AI 学习资料已经上传CSDN,朋友们如果需要可以微信扫描下方CSDN官方认证二维码免费领取【保证100%免费

😝有需要的小伙伴,可以Vx扫描下方二维码免费领取==🆓

在这里插入图片描述

评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值