AIGC:AI gernerate content
强化学习:最大化奖励最小化损失
大语言模型
并不是所有的大语言模型都是AIGC
循环神经网络: 按顺序逐字处理,无法并行计算训练效率低下,无法处理长序列文本。难以捕获长距离的语义依赖性。
LATM:长短期记忆网络,是RNN变体,
transform:自注意力机制
自注意力机制
TRANSFORM架构
解码器:
文本向量化输入嵌入层
带掩码的多头自注意力: 只分析句子前面的文本相关度,盖住后方内容。
多头自注意力:将输入融合入输出文本中
优化即将输出的文本。
调教GPT
- 可以用小样本提示
- 思维链,把计算过程提供给AI
- 直接加一句情分步骤思考
武装GPT
-
RAG检索增强生成
-
PAL程序辅助语言模型
-
REACT推理行动结合