自定义博客皮肤VIP专享

*博客头图:

格式为PNG、JPG,宽度*高度大于1920*100像素,不超过2MB,主视觉建议放在右侧,请参照线上博客头图

请上传大于1920*100像素的图片!

博客底图:

图片格式为PNG、JPG,不超过1MB,可上下左右平铺至整个背景

栏目图:

图片格式为PNG、JPG,图片宽度*高度为300*38像素,不超过0.5MB

主标题颜色:

RGB颜色,例如:#AFAFAF

Hover:

RGB颜色,例如:#AFAFAF

副标题颜色:

RGB颜色,例如:#AFAFAF

自定义博客皮肤

-+
  • 博客(12)
  • 收藏
  • 关注

原创 AI作业12-LSTM

重置门(Reset Gate):重置门帮助模型决定在计算新的候选隐藏状态时,是否要“忽视”以前的隐藏状态。sigmoid层输出0到1之间的值,表示我们要保存多少新信息,0表示“什么都不保存”,1表示“保存所有”,而tanh层则生成新的候选值,可能会被加入到状态中。sigmoid层决定我们要输出哪部分信息,而tanh层则将细胞状态转换到-1到1之间,然后与sigmoid的输出相乘,最后输出我们想要的信息。它是一个sigmoid层,输出0到1之间的值,0表示“完全忘记”,1表示“完全记住”。

2023-06-25 14:35:33 36

原创 AI作业11-RNN

空间/时间依赖性:CNN通过使用卷积核来学习局部特征,适合于处理固定长度的输入(如固定大小的图像),对空间依赖性有很好的处理能力。RNN可以处理任何长度的序列,对于长期的时间依赖性,标准的RNN处理起来有困难,但LSTM或GRU等RNN的变体可以很好地解决这个问题。序列到序列模型是一种在深度学习中用于生成序列的模型,特别适用于那些输入和输出都是序列的问题,如机器翻译、语音识别、文本摘要等。梯度爆炸:与梯度消失相反,梯度爆炸是指在训练过程中,梯度变得非常大,这会导致权重更新过大,使得网络不稳定。

2023-06-25 14:34:22 55

原创 实验 10-经典卷积网络

Inception 模块的主要思想是将多个卷积核大小的卷积层和池化层并行堆叠,从而在不同尺度上捕捉图像特征。VGG Net 在当年的 ImageNet 大规模视觉识别挑战(ILSVRC)中取得了优异成绩,以其简洁的结构和卓越的性能获得了广泛关注。VGG Net 的核心思想是通过使用较小的卷积核(如3x3)和多个连续卷积层来增加网络深度,从而提高模型的表达能力。VGG Net 有多个版本,如 VGG-16和 VGG-19,这些数字代表网络中包含的权重层(卷积层和全连接层)的数量。

2023-06-01 00:15:00 71 1

原创 实验 9-卷积 3-XO 识别

【代码】实验 9-卷积 3-XO 识别。

2023-05-31 19:55:16 75 1

原创 AI作业8-卷积2

不同的特征层次对于不同的任务有不同的贡献,如低级特征对于图像匹配和目标检测较为重要,而高级特征对于图像分类和识别较为重要。权值共享(weight sharing):指在卷积神经网络中,每个卷积核的参数都被用于在输入数据的不同位置进行卷积操作。这样可以减少网络参数的数量,并且可以让神经网络对输入数据的不同位置具有相同的响应,从而提高模型的泛化性能。高级特征指的是更抽象和语义化的特征,如物体的形状、位置、大小、颜色、纹理等。中级特征指的是在低级特征的基础上组合而成的更复杂的图像模式,如线条、形状等。

2023-05-21 12:52:08 84 1

原创 AI作业7-卷积

背后的原理是,不同的卷积核可以提取不同的特征响应,这些响应可以组合成更高层次的特征表示。通常情况下,更大的卷积核可以提取更多的特征,但会增加计算量,更小的卷积核可以提取更局部的特征,但可能会丢失更全局的信息。4.特征图:在卷积神经网络中,卷积操作的输出结果被称为特征图,特征图可以看作是输入数据在卷积核下的响应,也可以理解为卷积核提取出的图像特征。5.特征选择:在卷积神经网络中,卷积核的参数可以根据需要进行学习,因此可以通过选择不同的卷积核来提取不同的图像特征,从而得到更好的模型表现。

2023-05-21 12:51:35 56 1

原创 【无标题】

梯度下降在机器学习应用十分广泛,在回归计算(线性回归,Logistic)中的目的都是通过迭代计算寻找到目标函数的最小值,或者收敛到最小值。这么来说,梯度下降的概念有点过于抽象了。我们以具体的某一函数为样例来解释什么是梯度下降。我们以二次函数中的抛物线函数来作为样例,当一个抛物线函数它的开口向上,那么这个函数就存在且唯一的最低点,我们需要寻找这个函数的最低点,或者说这个函数映射的最小值。

2023-05-01 18:30:16 50

原创 AI作业5-深度学习基础

深度学习是机器学习的一种形式,建立在神经网络的基础之上,并使用反向传播算法来训练多层神经网络,以提取和抽象数据特征。深度学习中的多层神经网络使用非线性激活函数来实现数据的非线性建模,这使得它们能够更好地处理复杂的数据结构,并产生更准确的预测结果。神经元是一种在大脑中的细胞,而人工神经元是一种用于构建神经网络的数学模型,它可以将输入信号加权求和,并通过应用激活函数来产生输出。MP模型是一种的神经网络模型,它模拟了生物神经元的工作原理,并使用二进制输入和输出,在网络中通过加权和阈值计算输出。

2023-04-17 19:18:52 58

原创 AI作业4-无监督学习

K均值聚类:K均值聚类是一种无监督学习算法,它的目标是将样本数据集分成K个不同的簇或群组。该算法首先使用PCA对训练集中的人脸图像进行降维和特征提取,然后使用这些特征向量来构建每个人的“特征脸”,最后通过比较待识别的人脸图像与已知的特征脸,来识别出该人的身份。在K-means算法中,每个簇的中心被视为高斯混合模型中的一个组件,每个样本都被视为由一个高斯分布生成的数据点。在K均值聚类中,它通过计算每个簇中所有样本的均值来估计该簇的概率分布,然后使用这些概率分布来对新样本进行分类。

2023-04-12 12:53:45 85 1

原创 AI作业3-监督学习

分类是一种判别式方法,其目的是根据已有数据集的标签信息,将新的数据归为某个特定类别。KNN是一种基于实例的学习方法,可用于分类和回归问题,其原理是通过找到与新数据最近邻的K个已知标签的数据,通过这K个数据的标签来判断新数据的类别。生成式模型是根据观察到的数据来推断数据的生成方式,并尝试生成类似的新数据。无监督学习则是指在没有标记数据的情况下,使用模型来学习数据的潜在结构或特征,这种方法是一种生成式方法。生成式模型:生成式模型是一种机器学习模型,通过学习数据的分布来生成新的数据样本。

2023-03-24 21:15:00 89

原创 AI作业2-监督学习

Sigmoid 函数将输入数据映射到 0 和 1 之间的概率值,而 Softmax 函数将输入数据映射到多个类别的概率值,保证了所有概率值之和为 1。结构风险最小化是一种方法,它不仅考虑模型对数据的拟合程度,还考虑模型的复杂度,以此来平衡模型的拟合度和泛化能力,从而避免过拟合。它通过不断地对输入变量进行分裂,将数据集划分成不同的子集,并在每个子集上递归地重复该过程,直到达到终止条件,得到最终的预测结果。正则化:是一种通过向模型的损失函数中加入一个正则项的方法,来限制模型的复杂度,从而避免过拟合。

2023-03-22 22:15:27 55

原创 AI第一次作业-ML基础

同时验证集在训练过程中还可以用来监控模型是否发生过拟合,一般来说验证集表现稳定后,若继续训练,训练集表现还会继续上升,但是验证集会出现不升反降的情况,这样一般就发生了过拟合。虽然人们平时观测到的数据基本都是高维的,但实际上真正与学习任务的分布相关的往往是低纬度的分布。4.损失函数:在机器学习中,损失函数是代价函数的一部分,而代价函数则是目标函数的一种类型。期望风险:模型在所有可能出现的样本(包括训练集,测试集和其它未采集的样本)上的误差的均值。6.过拟合:是指在训练集上的误差较小,但在测试集上的误差较大。

2023-03-08 22:35:35 66 1

空空如也

空空如也

TA创建的收藏夹 TA关注的收藏夹

TA关注的人

提示
确定要删除当前文章?
取消 删除