自定义博客皮肤VIP专享

*博客头图:

格式为PNG、JPG,宽度*高度大于1920*100像素,不超过2MB,主视觉建议放在右侧,请参照线上博客头图

请上传大于1920*100像素的图片!

博客底图:

图片格式为PNG、JPG,不超过1MB,可上下左右平铺至整个背景

栏目图:

图片格式为PNG、JPG,图片宽度*高度为300*38像素,不超过0.5MB

主标题颜色:

RGB颜色,例如:#AFAFAF

Hover:

RGB颜色,例如:#AFAFAF

副标题颜色:

RGB颜色,例如:#AFAFAF

自定义博客皮肤

-+
  • 博客(12)
  • 收藏
  • 关注

原创 AI作业12-LSTM

LSTM的核心是细胞状态,它是一条贯穿整个序列的信息流,可以通过门控机制来控制信息的增加或遗忘。遗忘门决定了哪些信息需要从细胞状态中丢弃,输入门决定了哪些信息需要添加到细胞状态中,输出门决定了细胞状态对当前隐藏状态的贡献。更新门决定了当前状态需要保留多少历史状态的信息,以及需要接收多少新的候选状态的信息。LSTM的核心是细胞状态,它是一条水平线,贯穿整个网络,保存了长期的记忆。LSTM还有三个门控制器,分别是输入门、遗忘门和输出门,它们可以动态地调节细胞状态的信息流,增加或减少记忆。

2023-06-09 11:34:17 123

原创 AI作业11-RNN

沿时间反向传播算法(BPTT)是一种用于训练循环神经网络(RNN)的反向传播算法,它的主要思想是将网络展开成一个前馈神经网络,然后使用标准的反向传播算法来计算梯度²。而RNN则通过循环层来处理序列数据,每个时间步都会输入一个新的数据,并将上一步的输出作为下一步的输入,从而捕捉序列中长距离的依赖关系。前馈神经网络是一种最基本的神经网络,它的输入只能从输入层进入,输出只能从输出层输出,中间没有反馈。卷积神经网络(CNN)和循环神经网络(RNN)是两种常见的神经网络模型,它们的主要区别在于处理的数据类型不同。

2023-06-09 11:27:55 146

原创 AI作业10-经典卷积网络

AlexNet是一种卷积神经网络,由8层神经网络组成,最初用于ImageNet图像分类挑战赛。Inception v1是GoogLeNet的一种变体,它使用了Inception模块,这是一种可以在不增加计算量的情况下增加网络深度和宽度的方法。ResNet是一种卷积神经网络,由152层神经网络组成,最初用于ImageNet图像分类挑战赛。VGG Net是一种卷积神经网络,由19层或16层神经网络组成,最初用于ImageNet图像分类挑战赛。VGG Net的主要特点是使用非常小的3x3卷积核和更深的网络结构。

2023-06-09 11:13:43 133

原创 AI作业9-卷积3-XO识别

【代码】AI作业9-卷积3-XO识别。

2023-06-09 11:07:03 94

原创 AI作业8-卷积2

不同的特征层次对于不同的任务有不同的贡献,如低级特征对于图像匹配和目标检测较为重要,而高级特征对于图像分类和识别较为重要。权值共享(weight sharing):指在卷积神经网络中,每个卷积核的参数都被用于在输入数据的不同位置进行卷积操作。这样可以减少网络参数的数量,并且可以让神经网络对输入数据的不同位置具有相同的响应,从而提高模型的泛化性能。高级特征指的是更抽象和语义化的特征,如物体的形状、位置、大小、颜色、纹理等。中级特征指的是在低级特征的基础上组合而成的更复杂的图像模式,如线条、形状等。

2023-05-08 23:40:43 152

原创 AI作业7-卷积

通常情况下,更大的卷积核可以提取更多的特征,但会增加计算量,更小的卷积核可以提取更局部的特征,但可能会丢失更全局的信息。卷积能够提取特征的原因是因为它在卷积操作中利用了卷积核的参数,将输入数据与卷积核进行卷积操作后,可以得到卷积核在输入数据上的响应,这个响应可以被视为输入数据的一种特定特征。4.特征图:在卷积神经网络中,卷积操作的输出结果被称为特征图,特征图可以看作是输入数据在卷积核下的响应,也可以理解为卷积核提取出的图像特征。2.卷积核:卷积核是一个小的矩阵,用于在卷积操作中滑动处理输入数据。

2023-04-26 20:32:30 194

原创 AI作业6-误差反向传播

梯度下降(Gradient Descent)是一种常见的最优化算法,用于在训练机器学习模型时,根据模型的损失函数来更新模型参数。梯度下降算法的核心思想是根据当前参数的梯度信息,沿着损失函数的反方向调整参数的取值,从而不断接近损失函数的最小值。反向传播的基本思想是利用链式法则,从输出层开始,将误差信号沿着网络反向传播,计算每个参数对误差的贡献,并更新参数的取值。计算图的一个重要用途是用于自动求导,它可以将复杂的求导过程分解为一系列简单的计算操作,从而高效地计算参数的梯度。

2023-04-26 20:20:59 127

原创 AI作业5-深度学习基础

简单来说,就是一个输入是 0 或 1 的数据,输出结果也是 0 或 1,但当两个输入都为 1 时,输出为 0,而当两个输入有一个为 0 时,输出为 1。多层感知机则是使用多个神经元和多个隐藏层来处理更加复杂的问题,其中的前馈神经网络是一种最常见的神经网络结构。深度学习中的神经网络通常具有多个隐藏层,这些隐藏层的神经元数量通常比输入层和输出层的神经元数量更多,从而可以学习到更复杂的特征表示。激活函数是神经元中的一个重要组成部分,它将神经元的输出映射到一个非线性的范围内,从而使神经网络可以学习到非线性的函数。

2023-04-17 19:34:46 169

原创 AI作业4-无监督学习

LDA则是一种有监督的降维方法,其目标是将数据投影到一个新的坐标系中,使得不同类别之间的距离最大,同类别之间的距离最小。K均值聚类则是一种聚类算法,它将数据分为K个簇,使得每个数据点都属于离它最近的簇。奇异值分解是一种矩阵分解技术,可以将一个矩阵分解为三个矩阵的乘积,其中中间的矩阵是对角矩阵,其对角线上的元素为奇异值。与PCA不同,LDA的目标是找到可以最大化不同类别之间的差异性(类别间散度)和最小化同一类别内部的差异性(类别内散度)的投影。LDA和PCA都是常用的数据降维技术,但它们有不同的应用和目标。

2023-04-02 11:25:55 147

原创 AI作业3-监督学习

分类是判别式方法,因为它通过已有的标记数据建立输入和输出之间的映射,从而对新的数据进行分类。聚类是生成式方法,因为它通过数据的统计特性来学习数据的分布,从而对数据进行聚类。生成式模型的优点是可以对数据的分布进行建模,从而生成新的数据;监督学习是判别式方法,因为它通过已有的标记数据建立输入和输出之间的映射,从而预测新的输出。无监督学习是生成式方法,因为它通过数据的统计特性来学习数据的分布,从而生成新的数据。判别式模型是通过输入数据直接预测输出结果的模型,不考虑输入数据与输出结果之间的概率分布关系。

2023-03-22 22:20:29 154

原创 AI作业2-监督学习

结构风险最小化(Structural Risk Minimization,SRM),即把函数集构造为一个函数子集序列,使各个子集按照VC维的大小排列;在每个子集中寻找最小经验风险,在子集间折衷考虑经验风险和置信范围,取得实际风险的最小。机器学习会在损失函数中加入正则化,这个过程叫做正则化。正则项通过缩小解的空间来减轻模型的过拟合程度,提高模型的泛化能力,一般有降低模型复杂程度(结构风险最小化)和降低方差两种办法。

2023-03-19 18:27:56 52

原创 AI作业1-ML基础

5.训练集,测试集,验证集:三者之间存在递进关系,训练集就相当于对学习结果的初步检验,验证集就是在满足训练集的情况下,更深一步的对学习结果检验,测试集就是在学习完成之前的最后一次检验,完成之后便可以投入使用。无监督学习:计算机通过未进行分类也未进行标记的数据进行学习,所以机器本身必须具有对数据的分类能力,在所提供的大量的无规则数据中,机器通过自身来进行分类和学习,所以学习的结果具有一定的未知性。3.聚类:聚类是在没有训练的条件下,对一些没有标签的数据进行归纳分类。在训练集及测试集上的表现都不好。

2023-03-10 17:18:28 100 1

空空如也

空空如也

TA创建的收藏夹 TA关注的收藏夹

TA关注的人

提示
确定要删除当前文章?
取消 删除