LLM: Prompt的使用

本文使用的LLM是OpenAI的gpt系列。刚开始学大模型,如果出现错误内容或着描述不恰当的部分,后续会修改。

  Prompt是输入给大模型的文本或语句,用来引导大模型(Large Language Model, LLM)生成相关的输出。好的prompt可以提高大模型输出的准确性和可靠性。一般而言,好的prompt的特点是:具体、丰富、少歧义

1.Prompt

1.1 prompt典型构成

  一般情况下,一个好的prompt主要包括以下几个方面的内容:

  • 角色:给 AI 定义一个最匹配任务的角色,比如:“你是一位软件工程师”等;
  • 指示:任务描述;
  • 上下文:给出与任务相关的其它背景信息(经常用在多轮对话中);
  • 例子:示例;
  • 输入:任务的输入信息,在提示词中明确的标识出用户输入;
  • 输出:输出的格式描述,以便后继模块自动解析模型的输出结果,比如JSON、XML等;

tips: 大模型对prompt的开头和结尾部分更敏感;OpenAI GPT 对 Markdown 格式的prompt友好; 如果更换了大模型或者大模型更新了,prompt也需要跟着更新。

1.2 prompt用法

这里给出一个使用prompt操作GPT模型的例子(这里使用的是GPT的API,具体环境执行配置,这里不赘述),具体代码如下:

from openai import OpenAI
from dotenv import load_dotenv, find_dotenv
_ = load_dotenv(find_dotenv())
client=OpenAI()
message=[
    {"role":"system","content":"你是一个微信公众号文章的写手。"},
    {"role":"user","content":"写一段话介绍大模型,字数要求200字以内。"},
]
response=client.chat.completions.create(
    model="gpt-4",
    messages=message,
    temperature=0.8)
print(response.choices[0].message.content)

GPT输出内容为(每次输出内容均不相同):

大模型,指的是通过大量数据训练得到的庞大的人工智能系统。这类模型因其庞大的参数数量和强大的数据处理能力而得名。它们能够处理复杂的任务,如自然语言理解、图像识别、语音处理等。大模型通过深度学习技术,学习数据中的模式和规律,从而实现对语言、图像等多种类型数据的理解和生成。这些模型的训练需要大量的计算资源和数据,因此常常由拥有强大计算能力的大型科技公司或研究机构开发。大模型的出现推动了人工智能技术的边界,使得机器能够在更多领域内执行复杂的任务,表现出接近甚至超越人类的能力。

关于上述GPT代码,这里只关注client.chat.completions.create中的message参数(其他参数后序博客介绍)。message参数主要用来接收prompt。关于message的说明主要有以下几点:

  • message是一个object组成的数组。每个object都必须至少包含两个字段:rolecontentcontent中的内容即为具体的信息内容。
  • 目前message支持的角色类型role有:systemuserassistanttool
  • rolesystem时,可以存放prompt中的角色信息。
  • roleuser时,可以存放prompt中的其他信息。
  • roleassistant时,代表大模型返回的内容。注意:将assistant类型的信息通过messages参数再次传递给大模型,可以实现多轮对话。GPT这些模型本身是没有多轮对话的能力的。
  • roletool时,用来保存tool_call的返回结果。(后续博客会做详细介绍)

下面举一个简单的例子验证在messages中添加rolesystem类信息时的作用,具体如下:

message=[
    {"role":"system","content":"你是一个微信公众号文章的写手。你叫小A"},
    {"role":"user","content":"你是谁?"},
]

response=client.chat.completions.create(
    model="gpt-3.5-turbo",
    messages=message,
    temperature=0.8)

print(response.choices[0].message.content)

其输出内容为:

嘿,我是小A,是这个微信公众号的写手。有什么可以帮你的吗?

如果运行命令print(response.choices[0].message),将会看到如下结果(GPT返回的信息中role的值为assistant):

ChatCompletionMessage(content=’ 嘿,我是小A,是这个微信公众号的写手。有什么可以帮你的吗?', role=‘assistant’, function_call=None, tool_calls=None)

2 Prompt使用案例

大模型适合完成文本入、文本出类的任务。

2.1 使用prompt实现文章过滤

需求:需要利用大模型依据文章标题挑选出与特定主题相关的文章。假如需要挑选出与“阅读”或者“书籍”相关的文章。
完整代码如下:

from openai import OpenAI
from dotenv import load_dotenv, find_dotenv
_ = load_dotenv(find_dotenv())
client=OpenAI()

def get_completion(messages,model='gpt-4'):
    response=client.chat.completions.create(
        model=model,
        messages=messages,
        temperature=0.8)
    return response.choices[0].message.content

prompt="""
##目标
你可以依据用户输入的文章标题,判断这篇文章是否跟阅读或者书籍相关。
##用户输入
{input_article_title}
##输出
只输出“是”或“否”,
##示例
最适合今天读的灵性书籍: 是
肾脏很怕的 8 种食物,很多人每天都吃,还吃不少: 否
"""
article_list=["用七本想象力爆棚的绘本,点燃那颗崭新的童心",
'“书香盈怀 悦读致远” 2023年北京市诵读大赛燕山赛区活动通知',
"哪本书让你流了最多的眼泪?(话费福利)",
"今日宜自我分析",
"文化和自然遗产日:考验你的时刻到啦!",
"英文故事磨耳朵:When Sophie Gets Angry-Really,Really Angry...(附亲子共读获奖名单)",
"今日宜消化情绪",
"拜托了,夏天别和我提吃,除非……",
"预约!预约!预约!",
"今日宜大胆尝试",
"预约!聆听恐龙故事,揭开恐龙足迹背后的远古谜团",
"今日宜品读经典"]

messages=[
        {"role":"user",
         "content":prompt.format(input_article_title=str(article_list))}]
result=get_completion(messages)
print(result)

大模型输出结果为:

是、是、是、否、否、是、否、否、否、否、是、是

  • 24
    点赞
  • 15
    收藏
    觉得还不错? 一键收藏
  • 0
    评论
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值