上文我们介绍过LangChain的基本框架和其中包含的主要模块。从今天开始,我们开始学习各个模块,深入了解,同时进行相应实战练习。
本文学习 LangChain 中的 模型 I/O 封装模块。
0. 模块介绍
任何AI大模型应用程序的核心元素都是大模型。LangChain提供了与各种大模型接口进行交互的封装。
这张图生动地展现了LangChain对于I/O(输入输出)的封装。
- 首先是 Format 部分,这部分的作用是组装用户输入和Prompt模板,作为大模型的输入。
- 然后是 Predict 部分,这部分就是调用大模型接口获得结果
- 最后是 Parse 部分,这部分的作用是对大模型的结果进行解析,将大模型的输出转换到要求的格式(如json)上,或者对输出进行校验等等
1. Format部分:Prompt模板封装
1.1 PromptTemplate:创建一个字符串类型的Prompt
PromptTemplate 可以在模板中自定义变量
python
复制代码
import os
# 加载 .env 到环境变量
from dotenv import load_dotenv, find_dotenv
_ = load_dotenv(find_dotenv())
from langchain_openai import ChatOpenAI
llm = ChatOpenAI() # 默认是gpt-3.5-turbo
prompt_template = """
我的名字叫【{name}】,我的个人介绍是【{description}】。
请根据我的名字和介绍,帮我想一段有吸引力的自我介绍的句子,以此来吸引读者关注和点赞我的账号。
"""
from langchain.prompts import PromptTemplate
template = PromptTemplate.from_template(prompt_template)
print(template.input_variables)
prompt = template.format(name='同学小张', description='热爱AI,持续学习,持续干货输出')
print(prompt)
response = llm.invoke(prompt)
print(response.content)
1.2 ChatPromptTemplate:创建一个Prompt的Message数组
python
复制代码
...... 省略llm的引入代码,可参考前文 ......
from langchain.prompts import ChatPromptTemplate
from langchain.prompts.chat import SystemMessagePromptTemplate, HumanMessagePromptTemplate
template = ChatPromptTemplate.from_messages(
[
SystemMessagePromptTemplate.from_template("你是【{name}】的个人助手,你需要根据用户输入,来替用户生成一段有吸引力的自我介绍的句子,以此来吸引读者关注和点赞用户的账号。"),
HumanMessagePromptTemplate.from_template("{description}"),
]
)
prompt = template.format(name="同学小张", description="热爱AI,持续学习,持续干货输出")
print(prompt)
response = llm.invoke(prompt)
print(response.content)
运行后输出结果如下,可以看到Prompt中带入了 System、Human这样的角色名,区分Prompt的来源。
1.3 FewShotPromptTemplate:给例子的Prompt模板
在之前文章Prompt优化中,我们提到Prompt中给几个例子可以让大模型更好地生成正确的结果。这个模板就是给例子的。
python
复制代码
from langchain.prompts import PromptTemplate
from langchain.prompts.few_shot import FewShotPromptTemplate
#例子(few-shot)
examples = [
{
"input": "北京天气怎么样",
"output" : "北京市"
},
{
"input": "南京下雨吗",
"output" : "南京市"
},
{
"input": "江城热吗",
"output" : "武汉市"
}
]
#例子拼装的格式
example_prompt = PromptTemplate(input_variables=["input", "output"], template="Input: {input}\nOutput: {output}")
#Prompt模板
prompt = FewShotPromptTemplate(
examples=examples,
example_prompt=example_prompt,
suffix="Input: {input}\nOutput:",
input_variables=["input"]
)
prompt = prompt.format(input="羊城多少度")
print("===Prompt===")
print(prompt)
response = llm.invoke(prompt)
print("===Response===")
print(response)
以上代码为FewShotPromptTemplate的使用示例,总结为以下关键点:
-
例子(few-shot)用数组表示:examples
-
用PromptTemplate表示examples中的格式:Input后跟着output,注意:input_variables中的变量与examples中每个元素的key保持一致。
-
通过 FewShotPromptTemplate 将以上元素组合起来
- 同时传入 suffix 参数,该参数是接收用户的输入,组装提问的prompt模板。
- 然后input_variables表示用户输入的参数变量名
运行结果如下:红框内是通过FewShotPromptTemplate 将examples、example_prompt、suffix组合起来后最终的给大模型的Prompt。
1.4 从文件加载Prompt模板
我们还可以将Prompt模板单独存放在一个文件中,在程序运行时通过加载文件来导入Prompt模板。
这种方式很好地实现了 Prompt 和程序的分离,使得两者可以分别单独修改。甚至你可以将Prompt单独放在一个线上服务或数据库中,单独维护。
下面来看怎么实现。
1.4.1 Prompt模板文件格式
Prompt模板文件支持两种格式:yaml格式和json格式
- yaml格式:
python
复制代码
_type: prompt
input_variables:
["name", "description"]
template:
我的名字叫【{name}】,我的个人介绍是【{description}】。\n 请根据我的名字和介绍,帮我想一段有吸引力的自我介绍,以此来吸引读者关注和点赞我的账号。
- json格式
python
复制代码
{
"_type": "prompt",
"input_variables": ["name", "description"],
"template": "我的名字叫【{name}】,我的个人介绍是【{description}】。\n 请根据我的名字和介绍,帮我想一段有吸引力的自我介绍,以此来吸引读者关注和点赞我的账号。"
}
1.4.2 加载文件
使用 LangChain的load_prompt进行加载。
python
复制代码
from langchain.prompts import load_prompt
prompt = load_prompt("D:\GitHub\LEARN_LLM\langchain\langchain_prompt_file_test.json")
prompt_str = prompt.format(name="同学小张", description="热爱AI,持续学习,持续干货输出")
print(prompt_str)
response = llm.invoke(prompt_str)
print(f"\n{response}")
1.4.3 更进一步:文件套文件
LangChain也允许你在Prompt文件中再套Prompt文件:将文件中的template字段单独放一个txt文件使用。拆分后文件如下:
- prompt_template_test.txt
python
复制代码
我的名字叫【{name}】,我的个人介绍是【{description}】。\n 请根据我的名字和介绍,帮我想一段有吸引力的自我介绍,以此来吸引读者关注和点赞我的账号。
- langchain_prompt_file_test.json
python
复制代码
{
"_type": "prompt",
"input_variables": ["name", "description"],
"template_path": "D:\GitHub\LEARN_LLM\langchain\prompt_template_test.txt"
}
注意:json里面的
template
字段换成了template_path
字段
1.5 其它Prompt模板
还有一些其它的Prompt模板,就不详细介绍了,都差不多。
- FewShotChatMessagePromptTemplate
- ChatMessagePromptTemplate:可以自定义Prompt的角色名,如之前的“System”、“AI”、“Human”都是角色。
- …
总结:把Prompt模板看作带有参数的函数
2. Predict部分:大模型接口封装
这部分主要看下LangChain对大模型的两种封装:llm 和 chat_model。
python
复制代码
from langchain_openai import ChatOpenAI
from langchain_openai import OpenAI
llm = OpenAI()
chat_model = ChatOpenAI()
from langchain.schema import HumanMessage
text = "What would be a good company name for a company that makes colorful socks?"
messages = [HumanMessage(content=text)]
llm.invoke(text)
# >> Feetful of Fun
chat_model.invoke(messages)
# >> AIMessage(content="Socks O'Color")
可以看到 llm 和 chat_model 的区别,一个输出字符串,一个输出message。
3. Parse部分:输出结果校验的封装
LangChain封装了一些对于大模型输出结果的约定和校验能力。下面以PydanticOutputParser
为例演示一下Parse部分的使用方法和作用。
3.1 使用步骤
(1)首先定义一个你期望返回的数据结构
下面代码中,我们定义了一个Joke数据结构,它里面包含的信息有:
- 两个变量名:setup 和 punchline,大模型的返回需要以这两个名称作为key来组织答案
- 一个自定义的校验函数:
question_ends_with_question_mark
,校验信息是否符合你的要求,如果不符合,则报错。
@validator("setup")
表示校验结果中的setup字段。也就是说,首先大模型回复的答案中,首先必须是个json结构,才能解析出setup的内容。其次,json数据结构中必须有setup的字段。最后,setup的内容必须符合函数中定义的规则。这样才算通过,否则报错。
python
复制代码
from langchain_core.pydantic_v1 import BaseModel, Field, validator
# 定义你期望的数据结构
class Joke(BaseModel):
setup: str = Field(description="question to set up a joke")
punchline: str = Field(description="answer to resolve the joke")
# 使用Pydantic添加自定义的校验逻辑,如下为检测内容最后一个字符是否为问号,不为问号则提示错误.
@validator("setup")
def question_ends_with_question_mark(cls, field):
if field[-1] != "?":
raise ValueError("Badly formed question!")
return field
(2)生成一个解析器的实例
python
复制代码
parser = PydanticOutputParser(pydantic_object=Joke)
(3)生成 Prompt 模板
在这个Prompt模板中:
- 通过
template
指定Prompt的框架 input_variables
指定用户输入的信息放到这个变量名中partial_variables
是提前填充部分Prompt变量,这里通过parser.get_format_instructions()
获取PydanticOutputParser
中封住好的Prompt部分。
python
复制代码
prompt = PromptTemplate(
template="Answer the user query.\n{format_instructions}\n{query}\n",
input_variables=["query"],
partial_variables={"format_instructions": parser.get_format_instructions()},
)
看下parser.get_format_instructions()
的内容:
The output should be formatted as a JSON instance that conforms to the JSON schema below.
As an example, for the schema {“properties”: {“foo”: {“title”: “Foo”, “description”: “a list of strings”, “type”: “array”, “items”: {“type”: “string”}}}, “required”: [“foo”]} the object {“foo”: [“bar”, “baz”]} is a well-formatted instance of the schema. The object {“properties”: {“foo”: [“bar”, “baz”]}} is not well-formatted.
Here is the output schema:
{"properties": {"setup": {"title": "Setup", "description": "question to set up a joke", "type": "string"}, "punchline": {"title": "Punchline", "description": "answer to resolve the joke", "type": "string"}}, "required": ["setup", "punchline"]}
可以看到,LangChain内部将咱们上面定义的Joke数据结构填到了里面,并要求大模型输出json结构。
(4)加上用户的提问,调用大模型获取回复
python
复制代码
prompt_str = prompt.format(query="Tell me a joke.")
response = llm.invoke(prompt_str)
完整Prompt如下:
运行结果如下:
(5)校验输出结果是否符合要求
python
复制代码
parser_result = parser.invoke(response) ## 调用parser的invoke,校验结果是否符合要求
上面的结果明显符合要求,最终输出如下:
python
复制代码
#>> setup="Why don't scientists trust atoms?" punchline='Because they make up everything!'
3.2 不符合要求的情况
为了看一下不符合要求时会发生什么,我在大模型返回后手动改了下结果,让它不符合要求(要求是问句结尾必须是问号,下面我将问号删掉了)。
运行结果:报错了
如果大模型返回的结果不是json结构,也会报错:
3.3 不符合要求怎么办?Auto-Fixing Parser帮你自动修复错误
基本用法如下:
python
复制代码
## 1. 引入OutputFixingParser
from langchain.output_parsers import OutputFixingParser
## 2. 使用之前的parser和llm,构建一个OutputFixingParser实例
new_parser = OutputFixingParser.from_llm(parser=parser, llm=llm)
## 3. 用OutputFixingParser自动修复并解析
parser_result = new_parser.parse(response.content)
print("===重新解析结果===")
print(parser_result)
为了展示它的效果,我还是手动将结果改错了。
输出结果如下:可以看到重新解析后结果正确了。
重新解析为什么就正确了?其实是OutputFixingParser内部又重新调用了一遍大模型。
3.4 完整代码
python
复制代码
import os
# 加载 .env 到环境变量
from dotenv import load_dotenv, find_dotenv
_ = load_dotenv(find_dotenv())
from langchain_openai import ChatOpenAI
llm = ChatOpenAI() # 默认是gpt-3.5-turbo
def output_parse_test():
from langchain.output_parsers import PydanticOutputParser
from langchain_core.pydantic_v1 import BaseModel, Field, validator
from langchain.prompts import PromptTemplate
# 定义你期望的数据结构
class Joke(BaseModel):
setup: str = Field(description="question to set up a joke")
punchline: str = Field(description="answer to resolve the joke")
# 使用Pydantic添加自定义的校验逻辑,如下为检测内容最后一个字符是否为问号,不为问号则提示错误.
@validator("setup")
def question_ends_with_question_mark(cls, field):
if field[-1] != "?":
raise ValueError("Badly formed question!")
return field
# 生成一个解析器的实例
parser = PydanticOutputParser(pydantic_object=Joke)
# 生成 Prompt 模板
prompt = PromptTemplate(
template="Answer the user query.\n{format_instructions}\n{query}\n",
input_variables=["query"],
partial_variables={"format_instructions": parser.get_format_instructions()},
)
print(f"\n{parser.get_format_instructions()}")
prompt_str = prompt.format(query="Tell me a joke.")
print(prompt_str)
response = llm.invoke(prompt_str)
print(f"\n{response.content}")
# response.content = response.content.replace("?", "") ## 认为改错结果,测试后面的OutputFixingParser
try:
parser_result = parser.invoke(response)
print(f"\n{parser_result}")
except Exception as e:
print("===出现异常===")
print(e)
## 1. 引入OutputFixingParser
from langchain.output_parsers import OutputFixingParser
## 2. 使用之前的parser和llm,构建一个OutputFixingParser实例
new_parser = OutputFixingParser.from_llm(parser=parser, llm=llm)
## 3. 用OutputFixingParser自动修复并解析
parser_result = new_parser.parse(response.content)
print("===重新解析结果===")
print(parser_result)
output_parse_test()
关于更多 OutputParser 的说明,可以看官方文档:python.langchain.com/docs/module…
4. 总结
本文我们全面学习了LangChain的模型 I/O 封装模块。
- LangChain 提供了各种 PromptTemplate 类,可以自定义带变量的模板
- LangChain 统一封装了各种模型的调用接口,包括llm型和chat_model型两种,区别见上文。
- LangChain 提供了一系列输出解析器,用于将大模型的输出解析成结构化对象;额外带有自动修复功能。
如何学习大模型 AI ?
由于新岗位的生产效率,要优于被取代岗位的生产效率,所以实际上整个社会的生产效率是提升的。
但是具体到个人,只能说是:
“最先掌握AI的人,将会比较晚掌握AI的人有竞争优势”。
这句话,放在计算机、互联网、移动互联网的开局时期,都是一样的道理。
我在一线互联网企业工作十余年里,指导过不少同行后辈。帮助很多人得到了学习和成长。
我意识到有很多经验和知识值得分享给大家,也可以通过我们的能力和经验解答大家在人工智能学习中的很多困惑,所以在工作繁忙的情况下还是坚持各种整理和分享。但苦于知识传播途径有限,很多互联网行业朋友无法获得正确的资料得到学习提升,故此将并将重要的AI大模型资料包括AI大模型入门学习思维导图、精品AI大模型学习书籍手册、视频教程、实战学习等录播视频免费分享出来。
😝有需要的小伙伴,可以点击下方链接免费领取或者V扫描下方二维码免费领取🆓
第一阶段(10天):初阶应用
该阶段让大家对大模型 AI有一个最前沿的认识,对大模型 AI 的理解超过 95% 的人,可以在相关讨论时发表高级、不跟风、又接地气的见解,别人只会和 AI 聊天,而你能调教 AI,并能用代码将大模型和业务衔接。
- 大模型 AI 能干什么?
- 大模型是怎样获得「智能」的?
- 用好 AI 的核心心法
- 大模型应用业务架构
- 大模型应用技术架构
- 代码示例:向 GPT-3.5 灌入新知识
- 提示工程的意义和核心思想
- Prompt 典型构成
- 指令调优方法论
- 思维链和思维树
- Prompt 攻击和防范
- …
第二阶段(30天):高阶应用
该阶段我们正式进入大模型 AI 进阶实战学习,学会构造私有知识库,扩展 AI 的能力。快速开发一个完整的基于 agent 对话机器人。掌握功能最强的大模型开发框架,抓住最新的技术进展,适合 Python 和 JavaScript 程序员。
- 为什么要做 RAG
- 搭建一个简单的 ChatPDF
- 检索的基础概念
- 什么是向量表示(Embeddings)
- 向量数据库与向量检索
- 基于向量检索的 RAG
- 搭建 RAG 系统的扩展知识
- 混合检索与 RAG-Fusion 简介
- 向量模型本地部署
- …
第三阶段(30天):模型训练
恭喜你,如果学到这里,你基本可以找到一份大模型 AI相关的工作,自己也能训练 GPT 了!通过微调,训练自己的垂直大模型,能独立训练开源多模态大模型,掌握更多技术方案。
到此为止,大概2个月的时间。你已经成为了一名“AI小子”。那么你还想往下探索吗?
- 为什么要做 RAG
- 什么是模型
- 什么是模型训练
- 求解器 & 损失函数简介
- 小实验2:手写一个简单的神经网络并训练它
- 什么是训练/预训练/微调/轻量化微调
- Transformer结构简介
- 轻量化微调
- 实验数据集的构建
- …
第四阶段(20天):商业闭环
对全球大模型从性能、吞吐量、成本等方面有一定的认知,可以在云端和本地等多种环境下部署大模型,找到适合自己的项目/创业方向,做一名被 AI 武装的产品经理。
- 硬件选型
- 带你了解全球大模型
- 使用国产大模型服务
- 搭建 OpenAI 代理
- 热身:基于阿里云 PAI 部署 Stable Diffusion
- 在本地计算机运行大模型
- 大模型的私有化部署
- 基于 vLLM 部署大模型
- 案例:如何优雅地在阿里云私有部署开源大模型
- 部署一套开源 LLM 项目
- 内容安全
- 互联网信息服务算法备案
- …
学习是一个过程,只要学习就会有挑战。天道酬勤,你越努力,就会成为越优秀的自己。
如果你能在15天内完成所有的任务,那你堪称天才。然而,如果你能完成 60-70% 的内容,你就已经开始具备成为一名大模型 AI 的正确特征了。
这份完整版的大模型 AI 学习资料已经上传CSDN,朋友们如果需要可以微信扫描下方CSDN官方认证二维码免费领取【保证100%免费
】
😝有需要的小伙伴,可以Vx扫描下方二维码免费领取==🆓