吴恩达Chat GPT提示工程

第一集:Chat GPT提示工程

LLM分为两种:

基础LLMs:基于文本训练数据来预测,即“文字接龙”

例如:

输入:Once upon a time.there was a unicorn

输出:that lived in a magical forest with all her unicorn friends

但是如果使用以下提示:

what is the captial if Frandce?

根据互联网上的文章,基础LLMs可能预测出以下内容:

What is France's largest city?

What is France's largest population?

What is the currency of France?

因为互联网上的文章可能是关于法国国家的问答列表。

指令调整LLMs:这类LLMs接受了指令训练

输入:What is the capital of France?

输出:The capital of France is Paris.

指令调整型LLMs训练过程:

1.使用已经在大量文本数据上训练过的基本LLMs

2.使用输入和输出的指令进行微调,让其更好的遵循这些指令

3.使用人类反馈强化学习(RLHF)技术进一步优化,使系统能够更好的提供帮助,遵循指令

因为指令调整LLM已经接受过训练,所以更有可能输出有益、真实、无害的文本

第二集:提示指令编写指南

遵循两个原则:

1.编写明确和具体的指令(明确不等于简短)

实现策略:

1. 使用分隔符清楚地指示输入的不同部分。分隔符可以是任何清晰的标点符号,可以使模型清楚的知道这是一个单独部分的东西。

2. 要求结构化的输出,例如JSON、HTML。

3. 要求模型检查是否满足条件。如果有任务存在必须要满足的条件,在执行任务之前让模型检查是否满足条件,如果不满足,则指示停止完成任务,也可以考虑其他的解决方式,避免出现错误的结果。

4.少样本提示学习,要求模型执行任务之前,提供任务成功执行的示例。

2.给模型足够的时间来思考

实现策略:

1. 指定完成任务所需要的步骤。

2. 指示模型在匆忙做出结论之前思考解决方案。明确指示模型在给出结论之前推理出自己的解决方案,这样可以获得更好的结果。

LLM的局限性:

       虽然模型在训练过程中了解到大量的知识,但是它并没有完全记住它所看到的信息,因此它不了解知识边界(?),意味着它可能会尝试回答晦涩难懂的问题,会编造听起来合理但实际错误的内容(即幻觉)。

缓解策略:要求模型首先从文本中找到任何相关的引用,要求它使用这些引用回答问题。

第三集:迭代提示发展

该过程与机器学习过程相似

机器学习:

提示学习:

提示开发是一个过程:

1. 做出尝试

2. 分析为什么没有输出自己想要的结果

3. 澄清指令,给LLM思考的时间

4. 修改指令,重新尝试

第四集:一些应用

摘要

推理:情感分析,信息提取,主题提取

转换:翻译,语法纠正,修正拼写,转换格式

扩展

第五集:聊天机器人

评论 1
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值