【LangChain】Prompts之Prompt templates

LangChain学习文档


Prompts

编程模型的新方法是通过提示(prompts)。
prompts是指模型的输入。该输入通常由多个组件构成。 LangChain 提供了多个类和函数,使构建和使用prompts变得容易。

  • Prompt templates(提示模板): 参数化模型输入
  • Example selectors(选择器示例): 动态选择要包含在提示中的示例

prompt 翻译:提示

Prompt templates

语言模型将文本作为输入 - 该文本通常称为prompt

通常,这不仅仅是一个硬编码字符串,而是模板、一些示例和用户输入的组合
LangChain 提供了多个类和函数,使构建和使用prompts变得容易。

什么是提示模板?(What is a prompt template?)

prompt template是指生成提示的可重复的方式。它包含一个文本字符串(“模板”),可以接收来自最终用户的一组参数并生成提示。

提示模板包含:

  • 对语言模型的指令,
  • 一组几个镜头示例来帮助语言模型生成更好的响应,
  • 对语言模型的一个问题。

这是最简单的例子:

from langchain import PromptTemplate


template = """\
您是新公司的命名顾问。
生产{product}的公司起什么好名字?
"""

prompt = PromptTemplate.from_template(template)
prompt.format(product="彩色袜子")

结果:

您是新公司的命名顾问。
一家生产彩色袜子的公司起什么名字好呢?

创建提示模板(Create a prompt template)

您可以使用 PromptTemplate 类创建简单的硬编码提示。提示模板可以采用任意数量的输入变量,并且可以格式化以生成提示。

from langchain import PromptTemplate

# 没有输入变量的示例提示
no_input_prompt = PromptTemplate(input_variables=[], template="给我讲个笑话。")
no_input_prompt.format()
# -> "给我讲个笑话。"

# 带有一个输入变量的示例提示
one_input_prompt = PromptTemplate(input_variables=["adjective"], template="给我讲一个{adjective}笑话。")
one_input_prompt.format(adjective="有趣")
# -> "给我讲一个有趣的笑话。"

# 具有多个输入变量的示例提示
multiple_input_prompt = PromptTemplate(
    input_variables=["adjective", "content"], 
    template="给我讲一个关于{content}的{adjective}笑话。"
)
multiple_input_prompt.format(adjective="funny", content="chickens")
# -> "给我讲一个关于鸡的有趣笑话。"

如果您不想手动指定 input_variables,您还可以使用 from_template 类方法创建 PromptTemplate。 langchain 将根据传递的模板自动推断 input_variables

template = "给我讲一个关于{content}的{adjective}笑话。"

prompt_template = PromptTemplate.from_template(template)
prompt_template.input_variables
# -> ['adjective', 'content']
prompt_template.format(adjective="funny", content="chickens")
# -> 给我讲一个关于鸡的有趣笑话。

您可以创建自定义提示模板,以您想要的任何方式格式化提示。有关更多信息,请参阅自定义提示模板。

聊天提示模板(Chat prompt template)

聊天模型将聊天消息列表作为输入 - 该列表通常称为提示(prompt)。这些聊天消息与原始字符串(您将传递到 LLM 模型中)不同,因为每条消息都与一个角色关联。

例如,在 OpenAIChat Completion API中,聊天消息可以与 AI、人类或系统角色相关联。该模型会更紧密地遵循系统聊天消息的指令。

LangChain 提供了多种提示模板,可以轻松构建和使用提示。官方鼓励在查询聊天模型时使用这些聊天相关的提示模板而不是 PromptTemplate,以充分利用底层聊天模型的潜力。

from langchain.prompts import (
    ChatPromptTemplate,
    PromptTemplate,
    SystemMessagePromptTemplate,
    AIMessagePromptTemplate,
    HumanMessagePromptTemplate,
)
from langchain.schema import (
    AIMessage,
    HumanMessage,
    SystemMessage
)

要创建与角色关联的消息模板,请使用 MessagePromptTemplate

为了方便起见,模板上公开了一个 from_template 方法。如果您要使用此模板,它将如下所示:

template="您是将 {input_language} 翻译成 {output_language} 的得力助手。"
# 创建角色:系统的模板
system_message_prompt = SystemMessagePromptTemplate.from_template(template)
human_template="{text}"
# 创建角色:人类的模板
human_message_prompt = HumanMessagePromptTemplate.from_template(human_template)

如果你想更直接地构造MessagePromptTemplate,你也可以在外部创建一个PromptTemplate,然后将其传入,例如:

# 创建一个常规的模板
prompt=PromptTemplate(
    template="您是将 {input_language} 翻译成 {output_language} 的得力助手。",
    input_variables=["input_language", "output_language"],
)
# 再创建一个角色:系统 的模板
system_message_prompt_2 = SystemMessagePromptTemplate(prompt=prompt)
# 判断和之前创建的是否一样
assert system_message_prompt == system_message_prompt_2

之后,您可以从一个或多个 MessagePromptTemplate 构建 ChatPromptTemplate

我们可以使用 ChatPromptTemplateformat_prompt ——这会返回一个 PromptValue,您可以将其转换为字符串或 Message 对象,具体取决于您是否想要使用格式化值作为 llm 或聊天模型的输入。

chat_prompt = ChatPromptTemplate.from_messages([system_message_prompt, human_message_prompt])

# 从格式化消息中获取聊天完成信息
chat_prompt.format_prompt(input_language="English", output_language="French", text="I love programming.").to_messages()

结果:

    [SystemMessage(content='You are a helpful assistant that translates English to French.', additional_kwargs={}),
     HumanMessage(content='I love programming.', additional_kwargs={})]

总结

本篇主要讲述:

  1. 如何创建模板提示

方式一:PromptTemplate(input_variables=[], template="Tell me a joke.")

方式二:template = "Tell me a {adjective} joke about {content}." prompt_template = PromptTemplate.from_template(template),这种不用写input_variables

  1. 如何创建messageTemplate,我们常常需要与角色相关联:

角色有:

  • AI(AIMessagePromptTemplate)、
  • 人类(HumanMessagePromptTemplate)、
  • 系统(SystemMessagePromptTemplate)。

最后利用ChatPromptTemplate.from_messages(xxx)方法,整合这些角色,就构造出了,聊天机器人。

总结

https://python.langchain.com/docs/modules/model_io/prompts/prompt_templates/

### Ollama Prompt 使用方法 Ollama 是一种允许在个人设备上运行大型语言模型的技术,这使得开发者能够更方便地测试和部署各种应用。对于Prompt的设计,其核心在于构建有效的输入字符串,以便让LLM理解并给出预期的回答。 为了有效使用Ollama Prompts,在设计提示语时应考虑以下几个方面: - **清晰度**:确保指令简洁明了。 - **上下文提供**:如果适用,给予足够的背景信息帮助模型更好地理解和回应请求。 - **具体化目标**:明确指出希望获得什么样的输出形式或内容范围[^1]。 #### 示例代码展示如何调用带有特定参数配置的OLLAMA API接口发送自定义prompt: ```python import requests def send_ollama_prompt(prompt_text, api_key="your_api_key"): url = "https://api.ollama.com/v1/completions" headers = { 'Content-Type': 'application/json', 'Authorization': f'Bearer {api_key}' } data = {"prompt": prompt_text} response = requests.post(url, json=data, headers=headers) return response.json() # 测试函数 if __name__ == "__main__": result = send_ollama_prompt("解释什么是量子计算?") print(result['choices'][0]['text']) ``` --- ### LangChain 整合教程 LangChain 提供了一套完整的工具集来加速基于大语言模型的应用程序开发过程。通过引入链的概念,可以轻松组合多个处理单元形成复杂的工作流,从而简化应用程序逻辑的设计与实现。 要将 LangChain 集成到现有项目中,通常涉及以下几部分工作: - 安装必要的库文件并通过Poetry管理依赖关系。 - 构建适合应用场景的数据管道。 - 利用预置模块快速搭建基础架构。 - 自定义业务逻辑以满足特殊需求[^2]。 下面是一个简单的例子,展示了怎样利用LangChain创建一个基本的任务执行器,并将其应用于自然语言查询解析场景下: ```python from langchain import ConversationChain from langchain.prompts.prompt import PromptTemplate from langchain.chains.conversation.memory import ConversationBufferMemory template = """The following is a friendly conversation between a human and an AI. Human: {input} AI:""" prompt = PromptTemplate(input_variables=["input"], template=template) conversation_chain = ConversationChain( llm=None, # 替换为实际使用的LLM实例 memory=ConversationBufferMemory(), verbose=True, prompt=prompt ) response = conversation_chain.predict(input="你好,世界!") print(response) ```
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包

打赏作者

山鬼谣me

你的鼓励将是我创作的最大动力

¥1 ¥2 ¥4 ¥6 ¥10 ¥20
扫码支付:¥1
获取中
扫码支付

您的余额不足,请更换扫码支付或充值

打赏作者

实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值