ChatGPT 文本完成示例

OpenAI的编辑API提供文本修改和翻译功能,适用于纠正错误、翻译和多任务处理。大型语言模型如GPT-3擅长翻译和写作,能生成邮件、广告文案等。此外,它们还能用于问答、文本摘要、分类和实体提取,如从文本中抽取信息并进行分类。
摘要由CSDN通过智能技术生成

文本编辑示例

除了完成 API 端点之外,OpenAI 还提供了一个编辑 API 端点。阅读更多:

与仅接受单个文本输入的完成相比,编辑需要两个文本输入:指令和要修改的文本。例如:

指令输入:

Fix the OCR errors

文字输入:

Therewassomehostilityntheenergybehindthe researchreportedinPerceptrons....Part of ourdrivecame,aswequiteplainlyacknoweldgednourbook,fromhe facthatfundingndresearchnergywerebeingdissipatedon. . .misleadingttemptsouseconnectionistmethodsnpracticalappli-cations.

输出

There was some hostility in the energy behind the research reported in Perceptrons....Part of our drive came, as we quite plainly acknowledged in our book, from the fact that funding and research energy were being dissipated on...misleading attempts to use connectionist methods in practical applications.

一般来说,指示可以是命令式、现在时或过去时。试验一下,看看什么最适合您的用例。

翻译

编辑 API 的一项应用是翻译。

大型语言模型非常擅长跨通用语言进行翻译。2021 年,GPT-3在 WMT14 英法基准测试中创下了无监督翻译的新纪录。

以下是如何使用编辑端点翻译文本的示例:

指令输入:

translation into French

文字输入:

That's life.

输出

C'est la vie.

当然,许多可以通过编辑端点完成的任务也可以通过完成端点完成。例如,您可以通过在指令前添加如下指令来请求翻译:

Translate the following text from English to French.

English: That's life.
French:

输出

C'est la vie.

翻译提示:

  • 在最常见的语言上性能最好
  • 当指令以最终语言给出时,我们已经看到更好的性能(因此如果翻译成法语,给出指令Traduire le texte de l'anglais au français.而不是Translate the following text from English to French.
  • 反向翻译(如此处所述也可以提高性能
  • 带有冒号和重标点符号的文本可能会破坏指令遵循模型,尤其是当指令使用冒号时(例如,English: {english text} French:
  • 编辑端点有时会在翻译的同时重复输入原始文本,可以对其进行监控和过滤

在翻译方面,大型语言模型尤其擅长将其他指令与翻译相结合。例如,您可以要求 GPT-3 将斯洛文尼亚语翻译成英语,但保持所有 LaTeX 排版命令不变。以下笔记本详细介绍了我们如何将斯洛文尼亚数学书籍翻译成英语:

将一本斯洛文尼亚数学书翻译成英文

文字书写范例

大型语言模型非常擅长编写。他们可以协助完成各种任务:

  • 博文
  • 电邮副本
  • 广告文案
  • 网站复制
  • 产品说明
  • 备忘录
  • 评书
  • 头脑风暴
  • 问题生成
  • 等等。

提示 GPT-3 的最简单方法是告诉它你想要什么。例如,如果你想让它写一封电子邮件,你可以使用这样的提示:

Write an email to a colleague named Jill congratulating her on her promotion. The tone should be warm yet professional. Mention how you admire the work she's been putting in.  Include a joke about how her pet lizard Max enjoys eating grasshoppers. Mention how you're looking forward to the team off-site next week.

输出

Subject: Congratulations on Your Promotion, Jill!

Dear Jill,

Congratulations on your promotion! I'm so proud of you and all the hard work you've been putting in. It's been inspiring to watch you grow in your career.

I'm sure Max the lizard is also celebrating with you. I hear he loves eating grasshoppers, so you should treat him to a special snack!

I'm looking forward to seeing you at the team off-site next week. I'm sure it will be a great opportunity to celebrate your success.

All the best,

[Your Name]

一般来说,写作可以使用任何风格的提示,无论是指令还是要遵循的一系列示例。试验一下,看看什么最适合您的用例。

写作也适用于任何类型的模型,尽管它们各有优缺点。

优点缺点
指令遵循模型 (例如,text-davinci-003最容易使用多样性较低;缺乏创意;有时更难控制语气、风格等。
基本模型 (例如,davinci可能更有创意和多样化更难提示,更昂贵(例如提示中的示例需要额外的令牌)
微调模型可以训练很多例子;比在提示中包含示例便宜难以收集训练数据;训练使迭代更慢和更昂贵

文字说明示例

大型语言模型对于从长文本中提取信息很有用。应用包括:

  • 回答有关一段文字的问题,例如:
    • 查询知识库以帮助人们查找他们不知道的东西
    • 查询不熟悉的文档以了解其包含的内容
    • 使用结构化问题查询文档以提取标签、类、实体等。
  • 总结文本,例如:
    • 总结长文档
    • 总结来回的电子邮件或消息线程
    • 总结详细的会议记录,包括要点和后续步骤
  • 对文本进行分类,例如:
    • 按主题或类型对客户反馈消息进行分类
    • 按主题或类型对文档进行分类
    • 对文本的语气或情感进行分类
  • 提取实体,例如:
    • 从客户消息中提取联系信息
    • 从文档中提取人名、公司名或产品名
    • 提取客户评论或反馈中提到的内容

以下是每个的一些简单示例。

回答有关一段文字的问题

以下是回答关于一段文本的问题的示例提示:

使用下面的文字,回答下面的问题。 如果答案未包含在文本中,请说“我不知道”。

文本:
"""
位于中非西海岸加蓬奥克洛的奥克洛矿(有时称为奥克洛反应堆或奥克洛矿山)被认为是唯一的天然核裂变反应堆。 Oklo 由 16 个地点组成,人们认为这些地点大约在 17 亿年前发生了自持核裂变反应,并持续了数十万年。 据估计,那段时间的平均热功率不到 100 千瓦。
"""

问:迄今已发现多少个自然裂变反应堆?

回答:

输出

一个。 Oklo Mine 被认为是唯一的天然核裂变反应堆。

如果您要询问的文本超过了标记限制(对于text-davinci-002/003约 4,000 个标记,对于早期型号约 2,000 个标记),您可以将文本拆分成更小的部分,按相关性对它们进行排序,然后仅使用最相关的作品。这在Question_answering_using_embeddings.ipynb中进行了演示。

就像学生在允许访问笔记时在测试中表现更好一样,GPT-3 在给出包含答案的文本时在回答问题方面做得更好。没有笔记,GPT-3 必须依靠自己的长期记忆(即内部权重),这更容易导致虚构或幻觉的答案。

总结

这是一个简单的示例提示,用于总结一段文本:

总结以下文字。

文本:
"""
两个独立的实验今天早上在瑞士日内瓦附近的欧洲高能物理实验室 CERN 报告了他们的结果。 两者都显示出令人信服的证据,证明存在一种重量约为 125 吉电子伏特的新玻色子粒子,到目前为止,这符合理论物理学家先前对希格斯粒子的预测。

“作为外行,我会说:‘我想我们已经做到了’。你同意吗?” CERN 总干事 Rolf-Dieter Heuer 向座无虚席的礼堂发问。 聚集在那里的物理学家爆发出热烈的掌声。
"""

概括:

输出

CERN 的总干事问座无虚席的礼堂,他们是否同意两个独立的实验已经找到了符合希格斯粒子预测的新玻色子粒子的令人信服的证据,聚集在那里的物理学家们以掌声回应。

这些示例提示中使用的三重引号"""并不特殊;GPT-3 可以识别大多数分隔符,包括<>{}###。对于较长的文本,我们建议使用某种定界符来帮助区分一段文本的结束位置和下一段的开始位置。

分类

如果要对文本进行分类,最好的方法取决于是否事先知道类别。

如果您的类事先已知的,分类通常最好使用微调模型来完成,如Fine-tuned_classification.ipynb中所示。

如果你的类事先不知道(例如,它们是由用户设置的或动态生成的),你可以尝试零样本分类,方法是给出包含类的指令,甚至使用嵌入来查看哪个类标签(或其他分类文本)与文本最相似(如Zero-shot_classification.ipynb中所示)。

实体提取

以下是实体提取的示例提示:

从下面的文本中,按照以下格式提取以下实体:
公司:<以逗号分隔的公司列表>
人物和头衔:<以逗号分隔的提及人员列表(他们的头衔或角色附加在括号中)>

文本:
"""
1981 年 3 月,美国诉 AT&T 案在助理检察长威廉·巴克斯特 (William Baxter) 的带领下开庭审理。 AT&T 董事长查尔斯·L·布朗 (Charles L. Brown) 认为公司会被毁掉。 他意识到 AT&T 会输,并于 1981 年 12 月恢复与司法部的谈判。 不到一个月后达成协议,布朗同意资产剥离——最好也是唯一现实的选择。 AT&T 的决定使其得以保留其研究和制造部门。 该法令名为最终判决的修改,是对 1956 年 1 月 14 日同意令的调整。哈罗德 H. 格林法官被授予修改后的法令的权力......

1982 年,美国政府宣布 AT&T 将不再作为垄断实体存在。 1984 年 1 月 1 日,它被拆分为七个较小的区域性公司,贝尔南方公司、贝尔大西洋公司、纽约证券交易所、美国信息技术公司、西南贝尔公司、美国西部公司和太平洋电信公司,以处理美国的区域电话服务。AT&T 保留了其长期控制权 远程服务,但不再受到竞争保护。
"""

输出

公司:AT&T、Bell South、Bell Atlantic、NYNEX、American Information Technologies、Southwestern Bell、US West、Pacific Telesis
人物和头衔:William Baxter(助理检察长)、Charles L. Brown(AT&T 董事长)、Harold H. Greene(法官)
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值