AI大模型入门与应用开发:掌握核心技术的基础课程

前言

比赛记录:

本篇的目的是由于参加了公司内部的AI比赛,比赛的题目是基于强化学习的语言模型训练,虽然没有取得成绩,但是还是让我系统性的学习了一遍 LLM 的一些基础技术,最后直接接触到了GPT3-5的背后技术实现。对于学习AI 网上有非常多的资料和论文,于是做一下总结和理解并分享,以便以后有机会继续进一步的学习和应用。也希望有大牛进一步指导。

期望可以总体上从意思上会晓当前模型的原理,并不难哈。

人工神经网络的发展

反向传播算法

Reference:[www.jiqizhixin.com/graph/techn…]

image

正向传播

输入层 矩阵 乘以 权重,依次到 输出层,得到模型的输出 y

image

反向传播

计算得出的输出y和预期的真实结果z有一定的误差,这个误差就叫做误差信号。用误差信号反向传递给前面的各层,来调整网络参数。

image

根据权重,反向将误差传递

image

权重更新

利用误差δ_1和之前的权重以及之前e函数的倒数来获得新的权重w’.这里η是系数,它影响着权重改变大小的范围。

对每个权重进行更新之后,则完成了模型的修正。

image

总结

  • 从AI发展的基石,我们可以有个基本的认知,对于神经网络,图像识别、语言识别的处理都是会转化为一个确定大小的数组[x1, x2, x3 …],才能输入到网络,然后网络输出结果确定大小的数组[y1, y2]。

  • 通过调整神经元连接权重来完成对模型的训练

强化学习和语言模型

语言模型

最初的文本处理模型,从RNN 到 Attention Mechanism 到 目前最新的 Transformer 结构。

RNN

Reference:[easyai.tech/ai-definiti…]

文本处理是一个连续性,不确定大小的数据,需要从时序上来模型理解总体的句子。类似的还有视频、音频。

示意解释
RNN 跟传统神经网络最大的区别在于每次都会将前一次的输出结果,带到下一次的隐藏层中,一起训练。

| 对 What time is it 的 模型处理过程。 |
| 输入最后一个字时,之前输入结果的权重分布。image | 输入最后一个字时,越晚输入的字符记忆最深。

|

改进措施:

  • 抓重点 =》 一个调整缓存权重的优化算法 LSTM 和 LSTM 简化后的GRU

image

缺点:

  • 没法解决过拟合,可能长期记忆不相关的模式

  • 对于过长的文本

总结

RNN通过缓存上一次的中间输入,相当于有了“记忆功能”,所以他能处理序列数据。

人工算法结合模型,对模型的提升较小,但是可以使得其更适合于特定场景。

Encoder-Decoder

通过压缩数据,提高过长文本的效果。

imageimageimageEncoder(编码器)和 Decoder(解码器)之间只有一个“向量 c”来传递信息,且 c 的长度固定。image根据不同的任务可以选择不同的编码器和解码器(可以是一个 RNN ,但通常是其变种 LSTM 或者 GRUimage当输入信息太长时,会丢失掉一些信息。
总结:

Encoder-Decoder 通过对输入数据 统一压缩的形式,提高模型效果,不过会丢失一些信息。

Attention(注意力)

有没有更好的抓重点办法?Attention 来了。模仿人眼视觉的注意力机制,最早应用于图像识别,但是应用到文本处理,得到了很不错的效果。

image

image

图书管(source)里有很多书(value),为了方便查找,我们给书做了编号(key)。当我们想要了解漫威(query)的时候,我们就可以看看那些动漫、电影、甚至二战(美国队长)相关的书籍。

为了提高效率,并不是所有的书都会仔细看,针对漫威来说,动漫,电影相关的会看的仔细一些(权重高),但是二战的就只需要简单扫一下即可(权重低)。

image

第一步: query 和 key 进行相似度计算,得到权值

第二步:将权值进行归一化,得到直接可用的权重

第三步:将权重和 value 进行加权求和

  • 想想看Attention Value能告诉我们什么信息?

  • Source还能是什么?

image

image

根据不同的业态和维度,会有不同的注意力机制

image

总结:

Attention 模仿人眼识别的注意力机制,让模型找到和知识库,相关性最大的内容,从而抓住重点。

Transformer

将Encoder-Decoder 和 Attention 结合,跟进一步优化

image

Transformer模型结构中的左半部分为编码器(encoder),右半部分为解码器(decoder)

image

宏观上:imageimageimageimageimage
微观上:
词向量imageimage通过同时编码位置和词向量,因此transformer不需要循环输入,可以并行处理一整段句子。image位置编码算法:可以用4维数组,编码0-无限长的Indeximage当然,上述公式不是唯一生成位置编码向量的方法。但这种方法的优点是:可以扩展到未知的序列长度。

imageSelf-Attention 就是 注意这个词在输入句子中的 注意力分数。假设我们想要翻译的句子是: 那么 It 在这个句子中指的是什么? The animal didn’t cross the street because it was too tiredimage多头注意力**:**Multi-Head Attention 就是可以在不同维度再对单词进行不同维度的注意力分数。这样可以收集更多语境上的信息,比如人物、地点、时间等。当我们编码单词"it"时,其中一个 attention head (橙色注意力头)最关注的是"the animal",另外一个绿色 attention head 关注的是"tired"。因此在某种意义上,"it"在模型中的表示,融合了"animal"和"tire"的部分表达。这种机制可以说是帮助模型实现类似于发散联想和理解整体语境的能力。image

image |

总结

Transformer通过结合Attention 和 Encoder-Decoder,使得模型获得以下特性:

  • 从文本中抓住和知识库关联性最大的内容

  • 可以处理更长的文本

GPT

| imageGPT-2能够处理1024 个token。每个token沿着自己的路径经过所有的Decoder层。试用一个训练好的GPT-2模型的最简单方法是让它自己生成文本(这在技术上称为:生成无条件文本)。或者,我们可以给它一个提示,让它谈论某个主题(即生成交互式条件样本)。imageimageGPT2的 decoderimage | GPT2:要使用Transformer来解决语言模型任务,并不需要完整的Encoder部分和Decoder部分,于是在原始Transformer之后的许多研究工作中,人们尝试只使用Transformer Encoder或者Decoder,并且将它们堆得层数尽可能高,然后使用大量的训练语料和大量的计算资源(数十万美元用于训练这些模型)进行预训练。比如BERT只使用了Encoder部分进行masked language model(自编码)训练,GPT-2便是只使用了Decoder部分进行自回归(auto regressive)语言模型训练。问:每一层Decoder都是相同的吗?
为什么狂堆 Decoder 和 数据集 能让模型更智能?简单说明:

进一步说明:

|
| :-: | :-: |
| 升级到GPT3.5imageimage | GPT的发展:GPT3在GPT2的基础上,参数量和训练数据更大、ChatGPT在 GPT3基础上,进行了强化学习的应用,和安全合规的限制再开放。 |

GPT之间的区别

总结

GPT 系列通过堆叠 Transformer-Decoder 提高参数量,同时提高数据集的量级,使得模型更加智能。

强化学习

就是让机器人自己根据环境学习。

强化学习的几个关键概念

AgentIt is an entity that interacts with an environment in order to learn how to perform a task
PolicyA mapping from states to actions that defines the agent’s behavior.
EnvironmentThe external world that the agent interacts with, which provides feedback in the form of rewards or penalties.
StateA representation of the environment at a particular time, which includes all relevant information needed to make a decision.
ActionA decision made by the agent based on the current state, which affects the next state and the reward received.
RewardA scalar value that reflects the desirability of the state-action pair, which the agent seeks to maximize over time.
Value functionA function that estimates the expected cumulative reward under a given policy
ModelA representation of the environment that allows the agent to predict the next state and reward given the current state and action.
Exploration vs. ExploitationThe trade-off between trying out new actions to learn more about the environment (exploration) and taking actions that are known to yield high rewards (exploitation).
Learning algorithmA method for updating the agent’s policy or value function based on observed experiences
DistributionsDistributions play an important role in reinforcement learning (RL) as they are used to model uncertainty and randomness in the environment

image

image

再参考文章,入个门复习一下

应用场景:

游戏:

image

image

推荐算法

image

image

常见的RL算法:

image

Actor-Critic 算法

image

image

image

RLHF算法

RLHF (Reinforcement Learning from Human Feedback) ,即以强化学习方式依据人类反馈优化语言模型。

  1. 预训练一个语言模型 (LM) ;

  2. 聚合问答数据并训练一个奖励模型 (Reward Model,RM) ;

  3. 用强化学习 (RL) 方式微调 LM。

image

总结

AI的发展:

实践DEMO:做一个配送数据中心协议解析和Mock 的 GPT机器人

开发AI应用,我们不需要理解深层的GPT运行原理,不需要编程基础,只需要用语言开发。

GPT 结合 到应用生态里,也只需要提供OpenAPI 供 AI调用,需要注意的是,AI 没法一次生成标准化的Schema,不能相信来自AI提交的数据。

我们以 Coze Bot 开发举例

新建机器人

image

新增Promot

可以自动优化,大致写,你是一个专门从自然语言解析协议和mock返回数据的机器人。

image

增加knowledge

将协议内容上传,自动分割

image

image

调试知识

刚开始AI可能理解不清楚上下文,问点问题并且纠正它

image

发布

实践DEMO2:私有化AI模型开发

在上面的例子中,底层是OpenAPI的大模型,这样会有一些缺点

  • 数据泄露

  • 费用

  • 特定领域技能不足

所以需要私有化部署AI大模型,可以解决上面的问题。

网上有很多教程了。

偏应用:

  1. LangChain:简化了LLM集成的框架。

  2. LlamaIndex:用于LLM基础搜索的向量存储。

  3. FlowiseAI:FlowiseAI 是一个用于构建 LLM 流程和开发 LangChain 应用的拖放用户界面。这是对开发人员来说的极好的选择。

  4. TigerLab:这是另一个流行的 LLB 框架,专为生产环境中的 LLM 应用设计。

在这里插入图片描述

大模型&AI产品经理如何学习

求大家的点赞和收藏,我花2万买的大模型学习资料免费共享给你们,来看看有哪些东西。

1.学习路线图

在这里插入图片描述

第一阶段: 从大模型系统设计入手,讲解大模型的主要方法;

第二阶段: 在通过大模型提示词工程从Prompts角度入手更好发挥模型的作用;

第三阶段: 大模型平台应用开发借助阿里云PAI平台构建电商领域虚拟试衣系统;

第四阶段: 大模型知识库应用开发以LangChain框架为例,构建物流行业咨询智能问答系统;

第五阶段: 大模型微调开发借助以大健康、新零售、新媒体领域构建适合当前领域大模型;

第六阶段: 以SD多模态大模型为主,搭建了文生图小程序案例;

第七阶段: 以大模型平台应用与开发为主,通过星火大模型,文心大模型等成熟大模型构建大模型行业应用。

2.视频教程

网上虽然也有很多的学习资源,但基本上都残缺不全的,这是我自己整理的大模型视频教程,上面路线图的每一个知识点,我都有配套的视频讲解。

在这里插入图片描述

在这里插入图片描述

(都打包成一块的了,不能一一展开,总共300多集)

因篇幅有限,仅展示部分资料,需要点击下方图片前往获取

3.技术文档和电子书

这里主要整理了大模型相关PDF书籍、行业报告、文档,有几百本,都是目前行业最新的。
在这里插入图片描述

4.LLM面试题和面经合集

这里主要整理了行业目前最新的大模型面试题和各种大厂offer面经合集。
在这里插入图片描述

👉学会后的收获:👈
• 基于大模型全栈工程实现(前端、后端、产品经理、设计、数据分析等),通过这门课可获得不同能力;

• 能够利用大模型解决相关实际项目需求: 大数据时代,越来越多的企业和机构需要处理海量数据,利用大模型技术可以更好地处理这些数据,提高数据分析和决策的准确性。因此,掌握大模型应用开发技能,可以让程序员更好地应对实际项目需求;

• 基于大模型和企业数据AI应用开发,实现大模型理论、掌握GPU算力、硬件、LangChain开发框架和项目实战技能, 学会Fine-tuning垂直训练大模型(数据准备、数据蒸馏、大模型部署)一站式掌握;

• 能够完成时下热门大模型垂直领域模型训练能力,提高程序员的编码能力: 大模型应用开发需要掌握机器学习算法、深度学习框架等技术,这些技术的掌握可以提高程序员的编码能力和分析能力,让程序员更加熟练地编写高质量的代码。
在这里插入图片描述

1.AI大模型学习路线图
2.100套AI大模型商业化落地方案
3.100集大模型视频教程
4.200本大模型PDF书籍
5.LLM面试题合集
6.AI产品经理资源合集

👉获取方式:
😝有需要的小伙伴,可以保存图片到wx扫描二v码免费领取【保证100%免费】🆓

在这里插入图片描述

评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值