深度学习是一种强大的机器学习方法,它在各个领域都有广泛应用。如果你是一个新手,想要入门深度学习,下面是一些步骤和资源,可以帮助你开始学习和实践深度学习。
1. 学习基本概念
在开始深度学习之前,你需要对一些基本概念有所了解。以下是一些你需要学习的重要概念:
- 神经网络: 它从信息处理角度对人脑神经元网络进行抽象, 建立某种简单模型,按不同的连接方式组成不同的网络。神经网络是一种运算模型,由大量神经元之间相互联接构成。学习如何构建和训练神经网络是入门的重要一步。
- 神经元: 神经元模型是一个包含输入,输出与计算功能的模型。
- 前向传播和反向传播: 它是神经网络的基本运行方式,前向传播用于计算输出,反向传播用于更新网络参数。
- 激活函数: 激活函数决定神经元的输出。学习不同的激活函数以及它们的作用。
- 损失函数: 损失函数用于衡量模型的预测与实际结果之间的差异。了解不同的损失函数和它们的适用场景。
- 优化算法: 优化算法用于更新神经网络的参数以最小化损失函数。了解常用的优化算法,如随机梯度下降法(SGD)和Adam。
2. 学习编程和数学基础
深度学习需要一些编程和数学基础。以下是你应该学习的基本内容:
- 编程语言: Python 是深度学习的主要编程语言。学习 Python 的基本语法和常用库,如 NumPy、Pandas与Matplotlib。
- 线性代数: 深度学习中使用矩阵和向量进行计算,因此了解线性代数的基本概念是必要的,但是要求不高,一般本科及以上理工科学生已具备基础。
- 概率与统计: 深度学习中的一些概念和技术涉及概率和统计。了解基本的概率和统计概念将有助于你理解深度学习模型的工作原理。要求也不高,一般本科及以上理工科学生已具备基础。
3. 学习深度学习框架
深度学习框架可以帮助你更轻松地构建、训练和部署深度学习模型。以下是一些常见的深度学习框架:
- TensorFlow2:由 Google 开发的开源框架,简单,模块封装比较好,容易上手,对新手比较友好。在工业界最重要的是模型落地,目前国内的大部分企业支持TensorFlow模型在线部署,不支持Pytorch。
- PyTorch:由 Facebook 开发的开源框架,前沿算法多为PyTorch版本,如果是你高校学生or研究人员,建议学这个。相对于TensorFlow,Pytorch在易用性上更有优势,更加方便调试。
选择一个深度学习框架并学习其基本用法和特性。框架的官方文档和在线教程是学习的好资源。
4. 学习经典模型和案例
学习一些经典的深度学习模型和案例将帮助你更好地理解深度学习的应用和工作原理。以下是一些你可以开始学习的模型和案例:
- 卷积神经网络(Convolutional Neural Networks,CNN) :常用于图像识别和计算机视觉任务的常用模型,是一种专门用来处理具有类似网格结构的数据的神经网络。卷积网络在图像识别,自然语言处理,灾难性气候预测、围棋人工智能等诸多应用领域都表现优异。卷积神经网络通常由3个部分构成:
卷积层
,池化层
,全连接层
。简单来说,卷积层负责提取图像中的局部及全局特征;池化层用来大幅降低参数量级(降维) ;全连接层用于处理“压缩的图像信息”并输出结果。 - 循环神经网络(Recurrent Neural Networks,RNN) :用于序列数据建模和自然语言处理任务的常用模型,传统神经网络的结构比较简单,通常为:输入层 – 隐藏层 – 输出层。
- 生成对抗网络(Generative Adversarial Networks,GAN) :用于生成新的数据样本的模型。是近年来深度学习领域的一个热点方向。GAN并不指代某一个具体的神经网络,而是指一类基于博弈思想而设计的神经网络。GAN由两个分别被称为生成器(Generator)和判别器(Discriminator)的神经网络组成。其中,生成器从某种噪声分布中随机采样作为输入,输出与训练集中真实样本非常相似的人工样本;判别器的输入则为真实样本或人工样本,其目的是将人工样本与真实样本尽可能地区分出来。生成器和判别器交替运行,相互博弈,各自的能力都得到升。理想情况下,经过足够次数的博弈之后,判别器无法判断给定样本的真实性,即对于所有样本都输出50%真,50%假的判断。此时,生成器输出的人工样本已经逼真到使判别器无法分辨真假,停止博弈。这样就可以得到一个具有“伪造”真实样本能力的生成器。
- Transformer:用于自然语言处理任务,如机器翻译和文本生成。Transformer模型在2017年被google提出,直接基于 Self-Attention 结构,取代了之前NLP任务中常用的RNN神经网络结构,并在WMT2014 Englishto-German和WMT2014 English-to-French两个机器翻译任务上都取得了当时的SOTA。与RNN这类神经网络结构相比,Transformer一个巨大的优点是:模型在处理序列输入时,可以对整个序列输入进行并行计算,不需要按照时间步循环递归处理输入序列。与seq2seq模型类似,Transformer模型结构中的左半部分为编码器(encoder),右半部分为解码器(decoder)。
学习这些模型的基本原理和实现方法,并尝试在实际问题中应用它们。
下面将通过深度学习在 MNIST 手写数字的识别上的应用带大家入门深度学习
一、深度学习是什么
深度学习(DL, Deep Learning)是机器学习(ML, Machine Learning)领域中一个新的研究方向,它被引入机器学习使其更接近于最初的目标——人工智能(AI, Artificial Intelligence)。–引自百度百科
深度学习(deep learning)是机器学习的分支,是一种以人工神经网络为架构,对资料进行表征学习的算法。–引自维基百科
“深度学习”这四个字拆解成两个词就是“深度”和“学习”。“学习”大概是我们学生时代接触最频繁的词,那时候的学习就是上课、做题,最终通过考试。如果更抽象一点描述,学习就是认知的过程,从未知到已知的探索与思考过程。最早的学习,1+1=2,想想我们是怎么学习的?伸出一只手指,再伸出一只手指,数一数,两只手指那就是2。
这里定义一个概念,输入和输出,输入就是已知的信息,输出就是由输入获得的认知的结果。我们将一个从已有的信息,通过计算、判断和推理得到结果的认知过程统称为“学习”。
如何让机器也可以进行学习呢?学术界为此提出了“神经网络”的概念。人脑中负责活动的基本单元是神经元,这些神经元互相连接成一个被称为神经网络的庞大结构。由此,学术界模仿人脑“神经网络“建立一个人工神经网络(ANN),我们通常也简称为神经网络。
将1+1=2用神经网络可以表示为如下结构。
我们将“1”、“+”、“1”与“2”同时作为输入不断训练神经网络(不断告诉机器1+1=2),在训练若干次后,神经网络将会学会“1+1=2”。同样的,我们将1+2=3放入神经网络中去,不断进行训练,若干次后神经网络也将学会1+2=3。如此循环往复,我们可以教会神经网络进行加法运算,进而可以让神经网络学会算术运算,我们把这个过程称为深度学习。
深度学习在生活中的应用不仅仅局限于此,在自动驾驶、语音识别、自动机器翻译、即时视觉翻译(拍照翻译)、目标识别等等领域也都有重要应用,例如:手机上的小爱同学、地铁口的人脸识别…
下面我将通过对 MNIST 手写数字的识别进一步讲解深度学习,带领大家体验一次完整的深度学习实现的全过程。
假设现在我们手上很多张手写的数字图片,需要通过深度学习让机器“认识”这些图片上的数字,然后告诉我们每一张图片上的数字是多少。
那么我们应该如何实现呢?总体的思路如下:
- 我们先拿出 6 万张图片给机器进行学习(需要告诉机器每一个图片上写的是哪一个数字)。
- 在学习后,再拿出1万张机器没“见过”的图片给它进行识别,让它告诉我们,图片上写的是哪一个数字。
- 重复上面的过程,直到机器可以认识手写的数字。
至此,完成便可实现手写数字识别这一效果。
二、实现过程
程序执行步骤:
- ① 学习6万张图片上的数字
- ② 用1万张图片测试机器的学习效果(这1万张不参与①的训练)
- ③ 重复①、②
使用的编译器为Jupyter Notebook,如果你对下面的代码不是很理解,没有关系的,后面的文章中我会对每个部分展开更详细的解释。现在你需要做的是:了解每一个模块实现的功能,从整体上把握整份代码。
🏡 我的环境:
- 语言环境:Python3.10.11
- 编译器:Jupyter Notebook
- 深度学习框架:TensorFlow 2.4.1
- 显卡(GPU):NVIDIA GeForce RTX 4070
强烈建议大家使用Jupyter Notebook
编译器打开源码,你接下来的操作将会非常便捷的!
1. 准备数据
导入数据
python
import tensorflow as tf
from tensorflow.keras import datasets, layers, models
# 加载数据集
(train_images, train_labels), (test_images, test_labels) = datasets.mnist.load_data()
# 输出数据形状
train_images.shape, test_images.shape
scss
((60000, 28, 28), (10000, 28, 28))
准备好 6 万张带有标签的训练图片让机器进行学习。1 万张测试图片让机器进行识别,测试其是否学会了。(60000, 28, 28)
表示为:60000 张 28*28 像素的图片。
可视化
这里我们用第三方库 matplotlib
输出手写数字图片,看看我们的手写数字(数据集)是什么样子的。
python
import matplotlib.pyplot as plt
# 设置窗口大小为 20*12 单位英寸
plt.figure(figsize=(20,12))
for i in range(20):
# 设置子图行数为5,列数为10,i+1表示第几个子图
plt.subplot(5,10,i+1)
# 去掉坐标轴刻度
plt.xticks([])
plt.yticks([])
# 显示图片
plt.imshow(train_images[i], cmap=plt.cm.binary)
# 显示标签
plt.xlabel(train_labels[i])
plt.show()
调整图片格式
需要将图片调整为特定格式程序才可以进行学习
python
#调整数据到我们需要的格式
train_images = train_images.reshape((60000, 28, 28, 1))
test_images = test_images.reshape((10000, 28, 28, 1))
# 输出数据sahpe
train_images.shape,test_images.shape,train_labels.shape,test_labels.shape
scss
((60000, 28, 28, 1), (10000, 28, 28, 1), (60000,), (10000,))
(60000, 28, 28, 1)
:表示为:60000张 28*28 的灰度图片,最后一个数字为1时,代表灰度图片;为3时代表彩色图片。
2. 构建神经网络模型
我们将图片输入到网络,图片首先会将其数字化,紧接着通过卷积层提取图片上这个数字的特征,最后通过数字的特征判断这个数字是哪一个。结构图如下:
上面的结构图中,向我们展示了五层结构,那么每一层具体是用来做什么的呢?
- 输入层:用于将数据输入到神经网络
- 卷积层:使用卷积核提取图片特征,卷积核相当于一个小型的“特征提取器”
- Flatten层:将多维的输入一维化,常用在卷积层到全连接层的过渡
- 全连接层:起到“特征提取器”的作用
- 输出层:输出结果
卷积核与全连接层从某些方面上讲都有提取特征的作用,但是所采用的方法是不同的。
这部分为深度学习的核心内容,我将在第四部分(构建模型)重点向大家进行更详细深入的讲解,现在我们主要任务是跑通整个程序,从整体上了解一下深度学习是什么。
python
model = models.Sequential([ #
layers.Conv2D(32, (3, 3), input_shape=(28, 28, 1)), # 卷积层:提取图片特征
layers.Flatten(), # Flatten层:将二维图片压缩为一维形式
layers.Dense(100), # 全连接层:将特征进行进一步压缩
layers.Dense(10) # 输出层:输出结果
])
# 打印网络结构
model.summary()
markdown
Model: "sequential"
_________________________________________________________________
Layer (type) Output Shape Param #
=================================================================
conv2d (Conv2D) (None, 26, 26, 32) 320
_________________________________________________________________
flatten (Flatten) (None, 21632) 0
_________________________________________________________________
dense (Dense) (None, 100) 2163300
_________________________________________________________________
dense_1 (Dense) (None, 10) 1010
=================================================================
Total params: 2,164,630
Trainable params: 2,164,630
Non-trainable params: 0
_________________________________________________________________
3. 编译模型
在这一步,我们需要设置模型的优化器,损失函数、评价函数:
- 优化器:帮助模型更好的训练
- 损失函数:用于估量预测值与真实值的不一致程度
- 评价函数:评价模型的质量
python
model.compile(optimizer='adam', # adam是优化器的一种
loss=tf.keras.losses.SparseCategoricalCrossentropy(from_logits=True), # 损失函数的一种计算方法
metrics=['accuracy']) #采用准确率来评价模型
4. 训练模型
将数据传入模型进行训练,传入的数据分为训练数据、验证数据两部分。训练数据(训练集)用于训练模型,验证数据(验证集)用于监测模型的效果。epochs
表示模型的学习轮数(次数)。
python
"""
train_images :训练数据的图片
train_labels :训练图片对应的标签
epochs :训练轮数
validation_data:验证数据
"""
history = model.fit(train_images, train_labels, epochs=3,
validation_data=(test_images, test_labels))
yaml
Epoch 1/3
1875/1875 [==============================] - 39s 20ms/step - loss: 32.1691 - accuracy: 0.8110 - val_loss: 1.1053 - val_accuracy: 0.8700
Epoch 2/3
1875/1875 [==============================] - 42s 22ms/step - loss: 0.8161 - accuracy: 0.8832 - val_loss: 0.5099 - val_accuracy: 0.8955
Epoch 3/3
1875/1875 [==============================] - 36s 19ms/step - loss: 0.4562 - accuracy: 0.8920 - val_loss: 0.4225 - val_accuracy: 0.8843
5. 预测
python
# 打印我们想要进行预测的图片
plt.imshow(test_images[1])
arduino
<matplotlib.image.AxesImage at 0x14695a3cfd0>
输出测试集中第一张图片的预测数组
python
pre = model.predict(test_images)
pre[1]
ini
array([ 12.474585 , 1.1173537, 21.654232 , 16.206923 , -10.989567 ,
17.235504 , 19.404213 , -22.553476 , 13.221286 , -10.19972 ],
dtype=float32)
这组浮点数对应着0~9,最大的浮点数对应着的数字就是神经网络的预测结果。
python
import numpy as np
# 输出预测结果
pre_num = np.argmax(pre[1])
print("模型的预测结果为:",pre_num)
模型的预测结果为: 2
三、总结
我们通过算术学习、MNIST手写数字识别了解了什么是深度学习,也用TensorFlow2实现了MNIST手写数字识别,从整体上了解了一个深度学习程序是什么样子的,应该有哪些步骤
如何学习大模型 AI ?
由于新岗位的生产效率,要优于被取代岗位的生产效率,所以实际上整个社会的生产效率是提升的。
但是具体到个人,只能说是:
“最先掌握AI的人,将会比较晚掌握AI的人有竞争优势”。
这句话,放在计算机、互联网、移动互联网的开局时期,都是一样的道理。
我在一线互联网企业工作十余年里,指导过不少同行后辈。帮助很多人得到了学习和成长。
我意识到有很多经验和知识值得分享给大家,也可以通过我们的能力和经验解答大家在人工智能学习中的很多困惑,所以在工作繁忙的情况下还是坚持各种整理和分享。但苦于知识传播途径有限,很多互联网行业朋友无法获得正确的资料得到学习提升,故此将并将重要的AI大模型资料包括AI大模型入门学习思维导图、精品AI大模型学习书籍手册、视频教程、实战学习等录播视频免费分享出来。
😝有需要的小伙伴,可以点击下方链接免费领取或者V扫描下方二维码免费领取🆓
第一阶段(10天):初阶应用
该阶段让大家对大模型 AI有一个最前沿的认识,对大模型 AI 的理解超过 95% 的人,可以在相关讨论时发表高级、不跟风、又接地气的见解,别人只会和 AI 聊天,而你能调教 AI,并能用代码将大模型和业务衔接。
- 大模型 AI 能干什么?
- 大模型是怎样获得「智能」的?
- 用好 AI 的核心心法
- 大模型应用业务架构
- 大模型应用技术架构
- 代码示例:向 GPT-3.5 灌入新知识
- 提示工程的意义和核心思想
- Prompt 典型构成
- 指令调优方法论
- 思维链和思维树
- Prompt 攻击和防范
- …
第二阶段(30天):高阶应用
该阶段我们正式进入大模型 AI 进阶实战学习,学会构造私有知识库,扩展 AI 的能力。快速开发一个完整的基于 agent 对话机器人。掌握功能最强的大模型开发框架,抓住最新的技术进展,适合 Python 和 JavaScript 程序员。
- 为什么要做 RAG
- 搭建一个简单的 ChatPDF
- 检索的基础概念
- 什么是向量表示(Embeddings)
- 向量数据库与向量检索
- 基于向量检索的 RAG
- 搭建 RAG 系统的扩展知识
- 混合检索与 RAG-Fusion 简介
- 向量模型本地部署
- …
第三阶段(30天):模型训练
恭喜你,如果学到这里,你基本可以找到一份大模型 AI相关的工作,自己也能训练 GPT 了!通过微调,训练自己的垂直大模型,能独立训练开源多模态大模型,掌握更多技术方案。
到此为止,大概2个月的时间。你已经成为了一名“AI小子”。那么你还想往下探索吗?
- 为什么要做 RAG
- 什么是模型
- 什么是模型训练
- 求解器 & 损失函数简介
- 小实验2:手写一个简单的神经网络并训练它
- 什么是训练/预训练/微调/轻量化微调
- Transformer结构简介
- 轻量化微调
- 实验数据集的构建
- …
第四阶段(20天):商业闭环
对全球大模型从性能、吞吐量、成本等方面有一定的认知,可以在云端和本地等多种环境下部署大模型,找到适合自己的项目/创业方向,做一名被 AI 武装的产品经理。
- 硬件选型
- 带你了解全球大模型
- 使用国产大模型服务
- 搭建 OpenAI 代理
- 热身:基于阿里云 PAI 部署 Stable Diffusion
- 在本地计算机运行大模型
- 大模型的私有化部署
- 基于 vLLM 部署大模型
- 案例:如何优雅地在阿里云私有部署开源大模型
- 部署一套开源 LLM 项目
- 内容安全
- 互联网信息服务算法备案
- …
学习是一个过程,只要学习就会有挑战。天道酬勤,你越努力,就会成为越优秀的自己。
如果你能在15天内完成所有的任务,那你堪称天才。然而,如果你能完成 60-70% 的内容,你就已经开始具备成为一名大模型 AI 的正确特征了。
这份完整版的大模型 AI 学习资料已经上传CSDN,朋友们如果需要可以微信扫描下方CSDN官方认证二维码免费领取【保证100%免费
】
😝有需要的小伙伴,可以Vx扫描下方二维码免费领取==🆓