一、深度学习的基本概念
1.1 基本概念
-
神经网络: 它从信息处理角度对人脑神经元网络进行抽象, 建立某种简单模型,按不同的连接方式组成不同的网络。神经网络是一种运算模型,由大量神经元之间相互联接构成。学习如何构建和训练神经网络是入门的重要一步。
-
神经元: 神经元模型是一个包含输入,输出与计算功能的模型。
-
前向传播和反向传播: 它是神经网络的基本运行方式,前向传播用于计算输出,反向传播用于更新网络参数。
-
激活函数: 激活函数决定神经元的输出。学习不同的激活函数以及它们的作用。
-
损失函数: 损失函数用于衡量模型的预测与实际结果之间的差异。了解不同的损失函数和它们的适用场景。
-
优化算法: 优化算法用于更新神经网络的参数以最小化损失函数。了解常用的优化算法,如随机梯度下降法(SGD)和Adam。
1.2 深度学习框架
以下是一些常见的深度学习框架:
-
TensorFlow2:由 Google 开发的开源框架,简单,模块封装比较好,容易上手,对新手比较友好。在工业界最重要的是模型落地,目前国内的大部分企业支持TensorFlow模型在线部署,不支持Pytorch。
-
PyTorch:由 Facebook 开发的开源框架,前沿算法多为PyTorch版本,如果是你高校学生or研究人员,建议学这个。相对于TensorFlow,Pytorch在易用性上更有优势,更加方便调试。
-
**Keras:**是一个极简的、高度模块化的神经网络库,采用 Python(Python 2.7-3.5.)开发,能够运行在 TensorFlow 和 Theano 任一平台,旨在完成深度学习的快速开发。
TensorFlow 适合工业应用构建大型项目,PyTorch 适合学术研究构建小型项目。个人推荐使用 PyTorch,原因很简单,因为简单易懂。而且,它还弥补了 Tensorflow 静态构图的致命弱点。PyTorch 是可以构建动态计算图。也就是说你可以随时改变神经网络的结构,而不影响其计算过程。而 Tensorflow 这种静态图模块,一旦搭建好了神经网络, 你想修改结构也不行。
1.3 经典模型
学习一些经典的深度学习模型和案例将帮助你更好地理解深度学习的应用和工作原理。包括:
卷积神经网络(CNN):常用于图像识别和计算机视觉任务的常用模型,是一种专门用来处理具有类似网格结构的数据的神经网络。卷积网络在图像识别,自然语言处理,灾难性气候预测、围棋人工智能等诸多应用领域都表现优异。卷积神经网络通常由3个部分构成:卷积层,池化层,全连接层。简单来说,卷积层负责提取图像中的局部及全局特征;池化层用来大幅降低参数量级(降维);全连接层用于处理“压缩的图像信息”并输出结果。
循环神经网络(RNN):用于序列数据建模和自然语言处理任务的常用模型,传统神经网络的结构比较简单,通常为:输入层 – 隐藏层 – 输出层。
生成对抗网络(GAN):用于生成新的数据样本的模型。是近年来深度学习领域的一个热点方向。GAN并不指代某一个具体的神经网络,而是指一类基于博弈思想而设计的神经网络。GAN由两个分别被称为生成器(Generator)和判别器(Discriminator)的神经网络组成。其中,生成器从某种噪声分布中随机采样作为输入,输出与训练集中真实样本非常相似的人工样本;判别器的输入则为真实样本或人工样本,其目的是将人工样本与真实样本尽可能地区分出来。生成器和判别器交替运行,相互博弈,各自的能力都得到升。理想情况下,经过足够次数的博弈之后,判别器无法判断给定样本的真实性,即对于所有样本都输出50%真,50%假的判断。此时,生成器输出的人工样本已经逼真到使判别器无法分辨真假,停止博弈。这样就可以得到一个具有“伪造”真实样本能力的生成器。
Transformer:用于自然语言处理任务,如机器翻译和文本生成。Transformer模型在2017年被google提出,直接基于 Self-Attention 结构,取代了之前NLP任务中常用的RNN神经网络结构。与RNN这类神经网络结构相比,Transformer一个巨大的优点是:模型在处理序列输入时,可以对整个序列输入进行并行计算,不需要按照时间步循环递归处理输入序列。与seq2seq模型类似,Transformer模型结构中的左半部分为编码器(encoder),右半部分为解码器(decoder)。
二、经典入门Demo实战
2.1 深度学习原理
“深度学习”这四个字拆解成两个词就是“深度”和“学习”。“学习”大概是我们学生时代接触最频繁的词,那时候的学习就是上课、做题,最终通过考试。如果更抽象一点描述,学习就是认知的过程,从未知到已知的探索与思考过程。最早的学习,1+1=2,想想我们是怎么学习的?伸出一只手指,再伸出一只手指,数一数,两只手指那就是2。
这里定义一个概念,输入和输出,输入就是已知的信息,输出就是由输入获得的认知的结果。我们将一个从已有的信息,通过计算、判断和推理得到结果的认知过程统称为“学习”。
如何让机器也可以进行学习呢?学术界为此提出了“神经网络”的概念。人脑中负责活动的基本单元是神经元,这些神经元互相连接成一个被称为神经网络的庞大结构。由此,学术界模仿人脑“神经网络“建立一个人工神经网络(ANN),我们通常也简称为神经网络。
将1+1=2用神经网络可以表示为如下结构。
我们将“1”、“+”、“1”与“2”同时作为输入不断训练神经网络(不断告诉机器1+1=2),在训练若干次后,神经网络将会学会“1+1=2”。同样的,我们将1+2=3放入神经网络中去,不断进行训练,若干次后神经网络也将学会1+2=3。如此循环往复,我们可以教会神经网络进行加法运算,进而可以让神经网络学会算术运算,我们把这个过程称为深度学习。
深度学习在生活中的应用不仅仅局限于此,在自动驾驶、语音识别、自动机器翻译、即时视觉翻译(拍照翻译)、目标识别等等领域也都有重要应用,例如:手机上的小爱同学、地铁口的人脸识别…
2.2 一个手写数字的识别的实现过程Demo
下面我将通过一个手写数字的识别的案例来进一步讲解深度学习,带领大家体验一次完整的深度学习实现的全过程。
假设现在我们手上很多张手写的数字图片,需要通过深度学习让机器“认识”这些图片上的数字,然后告诉我们每一张图片上的数字是多少。
那么我们应该如何实现呢?总体的思路如下:
-
我们先拿出 6 万张图片给机器进行学习(需要告诉机器每一个图片上写的是哪一个数字)。
-
在学习后,再拿出1万张机器没“见过”的图片给它进行识别,让它告诉我们,图片上写的是哪一个数字。
-
重复上面的过程,直到机器可以认识手写的数字。
至此,完成便可实现手写数字识别这一效果。
程序执行步骤:
-
① 学习6万张图片上的数字
-
② 用1万张图片测试机器的学习效果(这1万张不参与①的训练)
-
③ 重复①、②
现在你需要做的是:了解每一个模块实现的功能,从整体上把握整份代码。
开发环境:
-
语言环境:Python3.10.11
-
编译器:Jupyter Notebook
-
深度学习框架:TensorFlow 2.4.1
1. 准备数据
导入数据
import tensorflow as tf
from tensorflow.keras import datasets, layers, models
# 加载数据集
(train_images, train_labels), (test_images, test_labels) = datasets.mnist.load_data()
# 输出数据形状
train_images.shape, test_images.shape
((60000, 28, 28), (10000, 28, 28))
准备好 6 万张带有标签的训练图片让机器进行学习。1 万张测试图片让机器进行识别,测试其是否学会了。(60000, 28, 28)
表示为:60000 张 28*28 像素的图片。
可视化
这里我们用第三方库 matplotlib
输出手写数字图片,看看我们的手写数字(数据集)是什么样子的。
import matplotlib.pyplot as plt
# 设置窗口大小为 20*12 单位英寸
plt.figure(figsize=(20,12))
for i in range(20):
# 设置子图行数为5,列数为10,i+1表示第几个子图
plt.subplot(5,10,i+1)
# 去掉坐标轴刻度
plt.xticks([])
plt.yticks([])
# 显示图片
plt.imshow(train_images[i], cmap=plt.cm.binary)
# 显示标签
plt.xlabel(train_labels[i])
plt.show()
调整图片格式
需要将图片调整为特定格式程序才可以进行学习
#调整数据到我们需要的格式train_images = train_images.reshape((60000, 28, 28, 1))test_images = test_images.reshape((10000, 28, 28, 1))# 输出数据sahpetrain_images.shape,test_images.shape,train_labels.shape,test_labels.shape
((60000, 28, 28, 1), (10000, 28, 28, 1), (60000,), (10000,))
(60000, 28, 28, 1)
:表示为:60000张 28*28 的灰度图片,最后一个数字为1时,代表灰度图片;为3时代表彩色图片。
2. 构建神经网络模型
我们将图片输入到网络,图片首先会将其数字化,紧接着通过卷积层提取图片上这个数字的特征,最后通过数字的特征判断这个数字是哪一个。结构图如下:
上面的结构图中,向我们展示了五层结构,那么每一层具体是用来做什么的呢?
-
输入层:用于将数据输入到神经网络
-
卷积层:使用卷积核提取图片特征,卷积核相当于一个小型的“特征提取器”
-
Flatten层:将多维的输入一维化,常用在卷积层到全连接层的过渡
-
全连接层:起到“特征提取器”的作用
-
输出层:输出结果
卷积核与全连接层从某些方面上讲都有提取特征的作用,但是所采用的方法是不同的。
这部分为深度学习的核心内容,就是构建模型,先不管这快,现在我们主要任务是跑通整个程序,从整体上了解一下深度学习是什么。
model = models.Sequential([ #
layers.Conv2D(32, (3, 3), input_shape=(28, 28, 1)), # 卷积层:提取图片特征
layers.Flatten(), # Flatten层:将二维图片压缩为一维形式
layers.Dense(100), # 全连接层:将特征进行进一步压缩
layers.Dense(10) # 输出层:输出结果
])
# 打印网络结构
3. 编译模型
在这一步,我们需要设置模型的优化器,损失函数、评价函数:
-
优化器:帮助模型更好的训练
-
损失函数:用于估量预测值与真实值的不一致程度
-
评价函数:评价模型的质量
model.compile(optimizer='adam', # adam是优化器的一种
loss=tf.keras.losses.SparseCategoricalCrossentropy(from_logits=True), # 损失函数的一种计算方法
metrics=['accuracy']) #采用准确率来评价模
4. 训练模型
将数据传入模型进行训练,传入的数据分为训练数据、验证数据两部分。训练数据(训练集)用于训练模型,验证数据(验证集)用于监测模型的效果。epochs
表示模型的学习轮数(次数)。
"""
train_images :训练数据的图片
train_labels :训练图片对应的标签
epochs :训练轮数
validation_data:验证数据
"""
history = model.fit(train_images, train_labels, epochs=3,
validation_data=(test_images, test_labels))
5. 预测
# 打印我们想要进行预测的图片
plt.imshow(test_images[1])
输出测试集中第一张图片的预测数组
pre = model.predict(test_images)
pre[1]
array([ 12.474585 , 1.1173537, 21.654232 , 16.206923 , -10.989567 ,
17.235504 , 19.404213 , -22.553476 , 13.221286 , -10.19972 ],
dtype=float32)
这组浮点数对应着0~9,最大的浮点数对应着的数字就是神经网络的预测结果。
import numpy as np
# 输出预测结果
pre_num = np.argmax(pre[1])
print("模型的预测结果为:",pre_num)
模型的预测结果为:2
总结
我们通过算术学习、手写数字识别了解了什么是深度学习,也用TensorFlow2实现了手写数字识别,从整体上了解了一个深度学习程序是什么样子的,应该有哪些步骤
如何学习AI大模型?
作为一名热心肠的互联网老兵,我决定把宝贵的AI知识分享给大家。 至于能学习到多少就看你的学习毅力和能力了 。我已将重要的AI大模型资料包括AI大模型入门学习思维导图、精品AI大模型学习书籍手册、视频教程、实战学习等录播视频免费分享出来。
这份完整版的大模型 AI 学习资料已经上传CSDN,朋友们如果需要可以微信扫描下方CSDN官方认证二维码免费领取【保证100%免费
】
AI大模型时代的学习之旅:从基础到前沿,掌握人工智能的核心技能!
二、640套AI大模型报告合集
这套包含640份报告的合集,涵盖了AI大模型的理论研究、技术实现、行业应用等多个方面。无论您是科研人员、工程师,还是对AI大模型感兴趣的爱好者,这套报告合集都将为您提供宝贵的信息和启示。
三、AI大模型经典PDF籍
随着人工智能技术的飞速发展,AI大模型已经成为了当今科技领域的一大热点。这些大型预训练模型,如GPT-3、BERT、XLNet等,以其强大的语言理解和生成能力,正在改变我们对人工智能的认识。 那以下这些PDF籍就是非常不错的学习资源。