吴恩达提示词系列解读(一)

本文是吴恩达提示词系列的第一篇解读,聚焦于大语言模型的分类及其在AI应用中的重要性。文章介绍了Base LLM和Instruction Tuned LLM的区别,强调了明确、具体的提示词对于有效使用AI模型的关键作用,并提供了编写提示词的两个原则:明确而具体的指令和给予模型足够的时间思考。此外,还探讨了如何减少AI幻觉,以提高模型的准确性和可靠性。
摘要由CSDN通过智能技术生成

用好AI,提示词是绕不开的一个关键点,最近从网上找了一些提示词课程学习,有些还付了费,然质量参差不齐,有时候在想,这么水的东西也拿出来卖吗?

之前看了吴恩达老师提示词的系列课程,非常的不错,由于时间关系,没有深入研究。也有一些人做了笔记,但不够深入。学习效果不太良好。

所以准备将吴恩达老师的提示词课程做一个较为深入的学习,总共有9节课程,公众号将分四期进行解读学习,今天是第一期,对前两节课进行深度解读。

lesson 1 引言

在人工智能领域,如ChatGPT等大型语言模型(LLM)的潜力,特别是在软件开发中的应用,常常被低估。

许多用户通过Web界面与AI大模型进行一次性的交互任务。然而,通过API调用,开发者可以更有效地利用这些模型的能力,快速构建复杂的软件应用。在这门课程中,我们将探索这一被低估的领域。首先我们来认识一下大语言模型的分类

大语言模型的两种分类

Base LLM

Instruction  Tuned LLM

1.Base LLM

基础LLM基于大量的文本数据进行训练,通过预测序列中最可能的下一个词或词组来工作。

例如,如果你提示它“从前,有一个独角兽”,它可能会完成这个句子,预测接下来的几个单词是“住在一个充满独角兽朋友的神奇森林里”。

但是,如果你用“法国的首都是什么”来提示它,那么根据互联网上的文章,基础LM很可能会以“法国的最大城市是什么”、“法国的人口是多少”等来完成这个句子,因为互联网上的文章很可能是关于法国的一系问答列表。

2.Instruction  Tuned LLM

相比之下,指令调谐LLM经过训练,以遵循指令。所以,如果你问它“法国的首都是什么”,它更有可能输出类似“法国的首都是巴黎”的答案。

通常,指令调谐LLM的训练方式是首先使用大量的文本数据训练一个基础LLM,然后通过输入和输出进一步训练或微调它,这些输入和输出是指令和尝试遵循这些指令的良好尝试。然后通常使用一种称为人类反馈的强化学习来进一步优化系统,使其更能够提供帮助并遵循指令。因为指令调谐的LLM已经被训练得更有助于、诚实和无害,所以比如说&#

评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值