自定义博客皮肤VIP专享

*博客头图:

格式为PNG、JPG,宽度*高度大于1920*100像素,不超过2MB,主视觉建议放在右侧,请参照线上博客头图

请上传大于1920*100像素的图片!

博客底图:

图片格式为PNG、JPG,不超过1MB,可上下左右平铺至整个背景

栏目图:

图片格式为PNG、JPG,图片宽度*高度为300*38像素,不超过0.5MB

主标题颜色:

RGB颜色,例如:#AFAFAF

Hover:

RGB颜色,例如:#AFAFAF

副标题颜色:

RGB颜色,例如:#AFAFAF

自定义博客皮肤

-+
  • 博客(12)
  • 收藏
  • 关注

原创 【22-23 春学期】AI作业12-LSTM

输出门(Output Gate):输出门根据当前时刻的输入和细胞状态,决定在隐藏状态中传递多少信息。LSTM是一种循环神经网络变体,通过输入门、遗忘门和输出门等机制有效地解决了梯度消失和信息丢失的问题,使其适用于处理序列数据,并在各种自然语言处理、语音识别和时间序列预测等任务中得到广泛应用。更新门用于控制前一时刻的状态信息被带入到当前状态中的程度,更新门同时实现了遗忘门和输出门的功能。重置门控制前一状态有多少信息被写入到当前的候选集上,重置门的功能与LSTM单元的输入门相近。

2023-06-14 10:33:27 67

原创 【22-23 春学期】AI作业11-RNN

梯度消失(Vanishing Gradient)指的是在反向传播过程中,由于链式法则的连乘操作,导致较早层网络的梯度逐渐减小至接近于零。在前馈网络中,信息只朝一个方向传递,每一层之间没有连接,而RNN具有时间循环,可以在网络的内部保持状态信息。RNN的关键点是它的隐藏状态(hidden state),它允许网络记忆和利用过去的信息来影响当前的输出。在RNN中,每个时间步的输入不仅包括当前时间步的输入数据,还包括上一个时间步的隐藏状态作为额外的输入。在序列数据中,时间信息对于理解数据的含义和模式非常重要。

2023-06-14 10:29:31 87

原创 【22-23 春学期】AI作业10-经典卷积网络

CIFAR(Canadian Institute for Advanced Research)数据集是一个常用的计算机视觉数据集,包含了已标记的60000个32x32彩色图像,分为10个类别,每个类别包含6000个图像。它的设计思想是通过引入跳跃连接(skip connection)或者称为残差连接(residual connection),解决了深层网络训练时出现的梯度消失和梯度爆炸问题。在传统的网络结构中,随着网络层数的增加,梯度会逐渐变小,导致训练过程变得困难。其次它采用了稀疏连接的方式,也就是。

2023-06-14 10:18:07 59

原创 【22-23 春学期】AI作业9-卷积3-XO识别

【代码】【22-23 春学期】AI作业9-卷积3-XO识别。

2023-06-14 09:26:17 52

原创 【22-23 春学期】AI作业7-卷积

​。

2023-05-12 11:22:00 24

原创 【22-23 春学期】AI作业8-卷积2

在卷积神经网络中,卷积操作将卷积核应用于输入图像或特征图,由于卷积核的大小和输入/特征图的大小有限制,因此需要在应用卷积操作时确定每一步卷积核的移动距离。池化操作通常也会以固定的步长和滤波器大小作用于输入特征图上,从而实现特征图的降采样和降低特征图的空间尺寸,以及额外的非线性映射。需要注意的是,随着卷积神经网络的发展,池化层的使用越来越少,有些最新的卷积神经网络甚至去掉了池化层,而是采用步长更大的卷积操作来实现特征降采样。根据卷积神经网络不同层次的特征表述能力,通常将特征分为低级特征、中级特征和高级特征。

2023-05-12 10:51:34 107

原创 【22-23 春学期】AI作业6-误差反向传播

具体地,反向传播算法从神经网络的输出层开始计算,计算误差函数对最后一层每个神经元的输出值的偏导数,然后计算其他层的参数梯度,一直计算到输入层。反向传播(Backpropagation,BP)是一种用于训练深度学习模型的算法,它可以有效计算神经网络中每个参数对误差的贡献,并通过梯度下降等优化算法调整网络中每个参数的值。总之,反向传播算法是一种用于优化深度神经网络参数的重要算法,通过计算参数梯度实现优化,从而减少网络的训练误差,并提高深度神经网络的预测性能。正向传播: 0.35292 0.24607。

2023-04-26 15:41:04 38

原创 【22-23 春学期】AI作业5-深度学习基础

这种方式也称为“训练”。MLP 通过前向传递输入数据,每一层的神经元对输入数据进行线性加权和加偏置处理,然后将结果输入到激活函数中进行非线性变换,产生下一层的输出,通过多次计算后得到最终的输出结果,即神经网络的预测结果。单层感知机是机器学习中最为基础的方法之一,也可以认为是一种最为简单的神经网络,其模型结构与逻辑回归是一致的,都是多个输入,乘以权值求和再加上偏置,再经过激活函数得到输出。简而言之,机器学习是一种实现人工智能的方法,深度学习是一种实现机器学习的技术,而生成对抗网络则是深度学习中的一种分类。

2023-04-26 15:03:53 107

原创 【22-23 春学期】AI作业4-无监督学习

K均值聚类是基于样本集合划分的聚类算法。K均值聚类将样本集合划分为k个子集,构成k个类,将n个样本分到k个类中,每个样本到其所属类的中心距离最小,每个样本仅属于一个类,这就是k均值聚类,同时根据一个样本仅属于一个类,也表示了k均值聚类是一种硬聚类算法。

2023-04-16 11:11:10 51 1

原创 AI作业3-监督学习

AI作业3-监督学习

2023-03-28 19:41:06 84 1

原创 AI作业2-监督学习

作业2

2023-03-19 20:44:48 71 1

原创 第一次作业

第一次作业

2023-03-09 15:12:13 48 1

空空如也

空空如也

TA创建的收藏夹 TA关注的收藏夹

TA关注的人

提示
确定要删除当前文章?
取消 删除