自定义博客皮肤VIP专享

*博客头图:

格式为PNG、JPG,宽度*高度大于1920*100像素,不超过2MB,主视觉建议放在右侧,请参照线上博客头图

请上传大于1920*100像素的图片!

博客底图:

图片格式为PNG、JPG,不超过1MB,可上下左右平铺至整个背景

栏目图:

图片格式为PNG、JPG,图片宽度*高度为300*38像素,不超过0.5MB

主标题颜色:

RGB颜色,例如:#AFAFAF

Hover:

RGB颜色,例如:#AFAFAF

副标题颜色:

RGB颜色,例如:#AFAFAF

自定义博客皮肤

-+
  • 博客(9)
  • 收藏
  • 关注

原创 【22-23 春学期】AI作业8-卷积2

感受野的大小可以影响神经网络的性能,较大的感受野可以帮助网络更好地理解图像中的上下文信息,提高模型的准确率。权值共享指的是卷积神经网络中,每个卷积核的权重值在不同的位置上是相同的。例如在处理图像时,一个卷积核可以被用来检测图像中的边缘,而这个卷积核的权重值在检测不同位置的边缘时是相同的。这些特征通常由卷积层中的较小的卷积核学习得到,因为较小的卷积核更容易捕捉到图像的细节特征。高级特征通常由卷积层中较大的卷积核或全连接层学习得到,它们可以表示更加抽象和语义化的特征,例如物体的类别、空间关系、场景等。

2023-05-10 08:39:30 43

原创 【22-23 春学期】AI作业7-卷积

特征图中的每个值表示了输入图像中对应位置的像素和卷积核中对应位置权重值的加权和,也就是局部特征。通常使用一些技术,如卷积核的设计、卷积核的数量和大小、池化层、批量归一化等技术来选择和提取有用的特征。在卷积操作中,如果输入数据有多个通道,那么卷积核也需要进行相应的调整,以便能够对每个通道的数据进行卷积操作。这些卷积核计算像素周围的值的平均值与像素本身的值之间的差异,并将其添加回像素本身的值中。总之,卷积神经网络中的不同卷积核可以实现不同的特征提取,以帮助网络识别和分类不同类型的图像。

2023-05-06 08:49:27 58

原创 【22-23 春学期】AI作业6-误差反向传播

它是一种基于梯度下降的算法,通过反向传播算法可以计算神经网络中每个权重和偏差对代价函数的影响,进而使用梯度下降算法来最小化代价函数,以提高神经网络的性能。在反向传播算法中,通过计算每个权重和偏差对代价函数的偏导数,以及利用链式法则来计算代价函数对每个中间节点输出的偏导数,我们可以逐层向后传递梯度,直到计算出代价函数关于输入数据的梯度,从而对神经网络进行更新。梯度下降算法的核心思想是,我们可以通过计算损失函数对参数w的偏导数来确定损失函数下降最快的方向。计算损失函数对参数w的梯度 ∇L(w)。

2023-04-26 11:19:24 49

原创 【22-23 春学期】AI作业5-深度学习基础

不同的激活函数具有不同的性质,选择合适的激活函数对于神经网络的训练和表达能力都有重要的影响。在多层感知机中,输入层将输入的数据向量传递给下一层,隐藏层根据自身的权重和偏置将输入的数据进行非线性变换,并将结果传递给下一层,最终输出层根据隐藏层的输出计算出最终的输出结果。树突:树突是精致的管状延伸物,是细胞体向外延伸出的许多较短的分支,围浇细胞体形成灌木丛状,他们的作用是接受来自四面八方传入的神经冲击信自,相当于细泡的“输入端”,信息流从树突出发,经过细胞体,然后由轴突传出。当损失函数收敛时,模型训练完成。

2023-04-19 12:28:30 128

原创 【22-23 春学期】AI作业4-无监督学习

具体方法是选择k个随机的点称为聚类中心,对于数据集中的每一个数据,按照距离𝐾个中心点的距离,将其与距离最近的中心点关联起来,与同一个中心点关联的所有点聚成一类。k-means算法假设所有的簇都是同性质的,即所有的簇具有相同的方差,但在实际应用中,这种假设并不总是成立。一种适用于PCA的降维算法,作用是将任意较复杂的矩阵更小更简单的三个子矩阵的相乘表示,勇者三个小矩阵来描述大矩阵的重要特性,。一种数据降维算法,可以用较少的新变量替换原来较多的新变量,替换的这些新变量可以尽可能的多保留原来反映的信息。

2023-04-03 16:45:27 64

原创 【22-23 春学期】AI作业3-监督学习

对于一个指示函数集,存在n个样本能被函数集中的函数按照所有可能的2ⁿ种形式分开,这个函数集能将n个样本打散,VC维就是它能打散的最大样本数。6.生成式模型:由数据学习联合概率密度分布P(x,y),然后生成条件概率分布P(y|x),或者直接学得一个决策函数 Y=f(x),用作模型预测。10.分类是判别式方法,聚类是生成式方法。1.集成学习:组合学习出来的多个有偏好的模型,以此来得到一个更加全面并且贴近现实的强监督模型。4.核函数:将原始空间中的向量作为输入向量,并返回特征空间中的向量的点积的函数称为核函数。

2023-03-27 23:05:48 54

原创 【22-23 春学期】AI作业2-监督学习

学习是机器学习的数学分析框架,在这个框架中,学习者接收样本,从某种可能的函数中选择一个泛化函数(假设),目标是在较高概率下,所选函数具有较低的泛化误差。线性回归是利用数理统计中回归分析,来确定两种或两种以上变量间相互依赖的定量关系的一种统计分析方法,运用十分广泛。决策树是一种树形结构,其中每个内部节点表示一个属性上的判断,每个分支代表一个判断结果的输出,最后每个叶节点代表一种分类结果。将数据投影在低维度上,并且投影后同种类别数据的投影点尽可能的接近,不同类别数据的投影点的中心点尽可能的远。

2023-03-20 17:07:53 35

原创 【22-23 春学期】AI作业1-ML基础

损失函数:每一个样本经过模型后会得到一个预测值,然后得到的预测值和真实值的差值就成为损失,损失函数本质上就是计算预测值和真实值的差距的一类型函数,然后经过库的封装形成了损失函数。它从过去的数据中学习,并将学习的结果应用到当前的数据中,以预测未来的事件。回归:监督学习的一种,对输入做出预测,输出物体的值,输出的值是连续的,定量的。分类:监督学习的一种,对输入做出预测,输出物体所属的类别,输出的值是离散的,定性的。训练集:训练集用来训练模型,即确定模型的权重和偏置这些参数,通常我们称这些参数为学习参数。

2023-03-14 15:35:18 41 1

原创 C语言,6*6二维数组求鞍点

求鞍点的小程序,给自己做个备忘,以后少循环思路就回来看看这个程序。

2022-10-14 15:57:58 188 1

空空如也

空空如也

TA创建的收藏夹 TA关注的收藏夹

TA关注的人

提示
确定要删除当前文章?
取消 删除