用好AI,提示词是绕不开的一个关键点,最近从网上找了一些提示词课程学习,有些还付了费,然质量参差不齐,有时候在想,这么水的东西也拿出来卖吗?
之前看了吴恩达老师提示词的系列课程,非常的不错,由于时间关系,没有深入研究。也有一些人做了笔记,但不够深入。学习效果不太良好。
所以准备将吴恩达老师的提示词课程做一个较为深入的学习,总共有9节课程,公众号将分四期进行解读学习,今天是第一期,对前两节课进行深度解读。
lesson 1 引言
在人工智能领域,如ChatGPT等大型语言模型(LLM)的潜力,特别是在软件开发中的应用,常常被低估。
许多用户通过Web界面与AI大模型进行一次性的交互任务。然而,通过API调用,开发者可以更有效地利用这些模型的能力,快速构建复杂的软件应用。在这门课程中,我们将探索这一被低估的领域。首先我们来认识一下大语言模型的分类
大语言模型的两种分类
Base LLM
Instruction Tuned LLM
1.Base LLM
基础LLM基于大量的文本数据进行训练,通过预测序列中最可能的下一个词或词组来工作。
例如,如果你提示它“从前,有一个独角兽”,它可能会完成这个句子,预测接下来的几个单词是“住在一个充满独角兽朋友的神奇森林里”。
但是,如果你用“法国的首都是什么”来提示它,那么根据互联网上的文章,基础LM很可能会以“法国的最大城市是什么”、“法国的人口是多少”等来完成这个句子,因为互联网上的文章很可能是关于法国的一系问答列表。
2.Instruction Tuned LLM
相比之下,指令调谐LLM经过训练,以遵循指令。所以,如果你问它“法国的首都是什么”,它更有可能输出类似“法国的首都是巴黎”的答案。
通常,指令调谐LLM的训练方式是首先使用大量的文本数据训练一个基础LLM,然后通过输入和输出进一步训练或微调它,这些输入和输出是指令和尝试遵循这些指令的良好尝试。然后通常使用一种称为人类反馈的强化学习来进一步优化系统,使其更能够提供帮助并遵循指令。因为指令调谐的LLM已经被训练得更有助于、诚实和无害,所以比如说&#