自定义博客皮肤VIP专享

*博客头图:

格式为PNG、JPG,宽度*高度大于1920*100像素,不超过2MB,主视觉建议放在右侧,请参照线上博客头图

请上传大于1920*100像素的图片!

博客底图:

图片格式为PNG、JPG,不超过1MB,可上下左右平铺至整个背景

栏目图:

图片格式为PNG、JPG,图片宽度*高度为300*38像素,不超过0.5MB

主标题颜色:

RGB颜色,例如:#AFAFAF

Hover:

RGB颜色,例如:#AFAFAF

副标题颜色:

RGB颜色,例如:#AFAFAF

自定义博客皮肤

-+
  • 博客(12)
  • 收藏
  • 关注

原创 AI作业12-LSTM

重置门(Reset Gate):重置门帮助模型决定在计算新的候选隐藏状态时,是否要“忽视”以前的隐藏状态。sigmoid层输出0到1之间的值,表示我们要保存多少新信息,0表示“什么都不保存”,1表示“保存所有”,而tanh层则生成新的候选值,可能会被加入到状态中。sigmoid层决定我们要输出哪部分信息,而tanh层则将细胞状态转换到-1到1之间,然后与sigmoid的输出相乘,最后输出我们想要的信息。它是一个sigmoid层,输出0到1之间的值,0表示“完全忘记”,1表示“完全记住”。

2023-06-07 08:53:59 42

原创 AI作业11-RNN

RNN可以处理任何长度的序列,对于长期的时间依赖性,标准的RNN处理起来有困难,但LSTM或GRU等RNN的变体可以很好地解决这个问题。序列到序列模型是一种在深度学习中用于生成序列的模型,特别适用于那些输入和输出都是序列的问题,如机器翻译、语音识别、文本摘要等。由编码器和解码器两部分组成。深度学习模型:CNN和RNN都是深度学习的模型,使用了神经网络的结构,并通过反向传播和梯度下降等优化算法进行训练。梯度爆炸:与梯度消失相反,梯度爆炸是指在训练过程中,梯度变得非常大,这会导致权重更新过大,使得网络不稳定。

2023-06-07 08:46:10 368

原创 AI作业10-经典卷积网络

VGG Net在当年的ImageNet大规模视觉识别挑战(ILSVRC)中取得了优异成绩,以其简洁的结构和卓越的性能获得了广泛关注。VGG Net的核心思想是通过使用较小的卷积核(如3x3)和多个连续卷积层来增加网络深度,从而提高模型的表达能力。VGG Net有多个版本,如VGG-16和VGG-19,这些数字代表网络中包含的权重层(卷积层和全连接层)的数量。尽管AlexNet最初是针对ImageNet数据集开发的,但它的架构和训练方法也可以应用于其他图像分类任务,如CIFAR数据集。

2023-05-21 13:15:18 46

原创 AI作业9-卷积3-XO识别

【代码】AI作业9-卷积3-XO识别。

2023-05-21 13:12:37 44

原创 AI作业8-卷积2

不同的特征层次对于不同的任务有不同的贡献,如低级特征对于图像匹配和目标检测较为重要,而高级特征对于图像分类和识别较为重要。权值共享(weight sharing):指在卷积神经网络中,每个卷积核的参数都被用于在输入数据的不同位置进行卷积操作。这样可以减少网络参数的数量,并且可以让神经网络对输入数据的不同位置具有相同的响应,从而提高模型的泛化性能。高级特征指的是更抽象和语义化的特征,如物体的形状、位置、大小、颜色、纹理等。中级特征指的是在低级特征的基础上组合而成的更复杂的图像模式,如线条、形状等。

2023-05-16 14:50:51 43 1

原创 AI作业7-卷积

背后的原理是,不同的卷积核可以提取不同的特征响应,这些响应可以组合成更高层次的特征表示。通常情况下,更大的卷积核可以提取更多的特征,但会增加计算量,更小的卷积核可以提取更局部的特征,但可能会丢失更全局的信息。4.特征图:在卷积神经网络中,卷积操作的输出结果被称为特征图,特征图可以看作是输入数据在卷积核下的响应,也可以理解为卷积核提取出的图像特征。5.特征选择:在卷积神经网络中,卷积核的参数可以根据需要进行学习,因此可以通过选择不同的卷积核来提取不同的图像特征,从而得到更好的模型表现。

2023-05-06 09:54:58 79

原创 AI作业6-误差反向传播

这么来说,梯度下降的概念有点过于抽象了。使用梯度下降的方法来求解,那么我们可以看成,在抛物线上的一点,每次都向着函数映射值降低的方向移动,而每次又以移动过后的点为基准,继续向着函数映射值降低的方向移动,直到这个点移动到了整个函数的最低点。在人工神经网络算法在实际运行过程中,一般分为输入层、隐藏层、和输入层三类,当算法输出结果和目标结果出现误差时,算法会对误差值进行计算,然后通过反向传播将数值传回至隐藏层,通过修改相关参数进行调整,并再次通过算法计算获取输出结果,通过不断重复该过程,得到与预期相符的结果。

2023-04-26 19:58:12 90

原创 AI作业5—深度学习基础

1、人工智能、机器学习、深度学习之间的区别和联系人工智能是指一种广义的概念,它是指计算机系统通过模拟人类智能的方式,实现了一些认知、感知、思考、决策、学习等方面的能力。机器学习是实现人工智能的一种方法,它是通过利用算法和统计模型,让计算机系统从数据中学习和自适应地改进自己的性能和表现。深度学习是机器学习的一种特殊形式,它是通过模拟神经网络的方式,实现了从数据中自动学习和识别特征的能力,从而实现了高度准确的分类、识别、预测等任务。2、“神经网络”与“深度学习”的关系神经网络是一种模拟人

2023-04-18 15:36:24 176

原创 AI作业4-无监督学习

思想:KNN是找点P距离最近的k个点,判断这k个点多数是什么特征(带标签),则P表示的样本就判断为什么特征;K-means是给k个质心(位置不确定),利用质心与样本点之间的距离不断改变质心位置,以改变簇中样本,最终,在哪一簇就是有那一簇相似的特征。EM是初始化参数后求出隐变量取值,根据数据、参数、隐变量重新计算模型参数,再重新利用参数更新隐变量取值,反复迭代,直至算法收敛K-means中质心的位置就是EM中的参数取值,都是反复迭代直至参数基本不变。K-means中的k是k个质心,形成k簇。

2023-04-09 21:58:50 118 1

原创 AI作业3-监督学习

在监督学习中,模型的目标是学习输入和输出之间的关系,以便在给定新的输入时,能够预测其相应的输出。在无监督学习中,模型的目标是学习数据之间的内在结构或模式,而无需知道任何标注数据的信息。KNN(k-nearest neighbors)是一种基于实例的学习方法,它通过测量不同数据点之间的距离来预测新数据点的分类。分类是一种判别式方法,它的目标是根据已有的标记数据(即带有标签的数据)将新的数据点分到某个已知的类别中。判别式模型是一种机器学习模型,它试图直接学习输入和输出之间的映射关系,而不是学习数据的生成过程。

2023-03-28 16:35:25 99

原创 AI作业2-监督学习

结构风险最小化(Structural Risk Minimization,简称SRM)是指在选择机器学习模型时,需要考虑模型复杂度与训练误差之间的平衡,以避免过拟合。SRM 通过加入正则化项(例如L1、L2正则化),降低模型复杂度,从而在一定程度上减少过拟合的风险。正则化是指在模型训练过程中对模型参数进行约束,以降低过拟合风险的一种技术。常见的正则化方法有L1正则化和L2正则化。L1正则化会让一部分模型参数为零,从而实现特征选择的效果,而L2正则化则会让所有模型参数都趋向于很小的值,从而让模型更加平滑。

2023-03-19 21:16:55 68

原创 AI作业1-ML基础

期望风险:期望风险针对的是全体数据。也就是已有的数据,未有的数据都包括在内。经验风险:经验风险来源于训练数据集,训练数据集的平均损失也称为经验风险。验证集:用于确定网络结构以及调整模型的超参数,来确定是否需要继续训练。测试集:用于检验模型的泛化能力,测试集用来形容模型能力的好坏。过拟合:训练过度,只对训练集的效果好,对测试集的效果差。欠拟合:训练的不够,对训练集和测试集的效果都差。聚类:常见的无监督算法,让样本聚成不同的类型。无监督学习 :从无标记的训练数据中推断结论。5.训练集、测试集、验证集。

2023-03-12 21:18:54 69 2

空空如也

空空如也

TA创建的收藏夹 TA关注的收藏夹

TA关注的人

提示
确定要删除当前文章?
取消 删除