大模型应用开发教程阅读

大模型应用开发教程阅读

Prompt是做一个大模型应用的必要基础,最好从第一性原理进行对Prompt 有深入理解,写出针对自己业务的 90 分 Prompt。

  1. Tokenization分词

意义:很多大模型出现的问题都是因为 Tokenization

GPT 的 Tokenizer:实际上 GPT 的 Tokenizer 采用了 BPE 算法,即将单个字符的 二进制表示,不断提取重复的字符对,进行压缩,最终用一个较为合理大小的词汇表表示 Token 到数字的映射。(想详细了解,可以去看下 BPE 算法的实现)在训练 Tokenizer 的过程中,会将所有收集到的文本资料,进行字符和字符对的统计。

猜想:

1 分词、采用单个字符的二进制

2 分词原理

3 中文训练集少(待求证)

2. Transformer

Transformer 的核心是 Self-Attention 机制,Self-Attention 机制本质是计算要预测一个词的时候,这个词跟上下文每个词的所占的权重关系。这种相关度计算, 相比 RNN 可以不按照从头往后依赖的方式计算,可以一次性计算每个词之间的相关度关系。达到更大的并发计算效率。

猜想

1 最前和最后的关键词多,注意力编码权重大

2 句子长度太长的话,多数词相关性不大,与注意力机制有关(待求证)

2307.03172 (arxiv.org)

3. GPT

OPENAI 一直遵循的原理 Scaling-Law: 随着模型的参数进行指数增长的时候,模型的表现会进行线性增长。

猜想

1 非结构性数据,语音、图像、三维立体的数据

2 补足,但不是唯一解,but what else?

3 参数量大,广而泛,参数量小,少而精

4. Instruction Tuning

(待求证)小模型微调 效果好

适用prompt 成本低

5. RLHF

强化学习,强化学习一般是由一个教师模型,和一个学生模型构成, 教师模型负责给学生模型的每次输出进行打分。那学生模型的目标就是让它自己的输出的分数尽可能的高(取得一个高分),教师模型的目的就是让每次打分更准确一些。

有了这个模型就可以大大减轻需要人类大量标注模型输出评分的工作量。那下一步就是训练底座模型可以根据指令/Prompt 生成更高分的回答。

猜想

1 值得

2 不限制,是带来幻觉的原因,它的回答取决于训练的数据,学到什么回答什么(待求证)

总结

写好一个好的 Prompt 非常重要,一个好的 Prompt 可以影响着 GPT 生成下一个 Token 的倾向性和准确性。

Prompt 其实是通过提供一个外部的 Context 帮助大模型更好的预测下一个词, 大模型本身有着海量的互联网数据学习过,它可以利用本身学习过的知识之间的权重\联系,更好完成补全提示词后的输出的任务。始终记住 GPT 只是一个 经过训练的 Token(词语)生成器而已,它没有自己的思考(只是每次选取可能性高的词进行输出)

参考文章:大模型应用开发教程 1. 如何编写一个 90分的 Prompt ? Part I 从模型出发 (wolai.com)

  • 15
    点赞
  • 8
    收藏
    觉得还不错? 一键收藏
  • 0
    评论
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值