自定义博客皮肤VIP专享

*博客头图:

格式为PNG、JPG,宽度*高度大于1920*100像素,不超过2MB,主视觉建议放在右侧,请参照线上博客头图

请上传大于1920*100像素的图片!

博客底图:

图片格式为PNG、JPG,不超过1MB,可上下左右平铺至整个背景

栏目图:

图片格式为PNG、JPG,图片宽度*高度为300*38像素,不超过0.5MB

主标题颜色:

RGB颜色,例如:#AFAFAF

Hover:

RGB颜色,例如:#AFAFAF

副标题颜色:

RGB颜色,例如:#AFAFAF

自定义博客皮肤

-+
  • 博客(8)
  • 收藏
  • 关注

原创 【22-23 春学期】AI作业8-卷积2

低级特征、中级特征、高级特征是神经网络中不同层次的特征表示。低级特征指的是对输入图像的底层特征进行提取,如边缘、纹理等。高级特征指的是对中级特征进行更高层次的抽象和表示,如物体的类别、位置等。步长表示卷积核每次在输入的特征图上滑动的跨度,填充是在输入的特征图周围添加一圈0,可以使输出的特征图大小与输入相同。权值共享指的是在卷积神经网络中,每个卷积核的权值在不同的位置上是共享的,这样可以大大减少参数量。在卷积神经网络中,每个神经元的感受野大小取决于其所在的卷积层的卷积核大小、步长和填充等参数。

2023-05-10 08:16:32 76

原创 【22-23 春学期】AI作业7-卷积

总的来说,卷积核在卷积神经网络中扮演着非常重要的角色,通过探究不同卷积核的作用和原理,可以更好地理解卷积神经网络的工作原理,并且可以帮助我们更好地设计和优化卷积神经网络的结构。卷积核的作用是对输入数据进行卷积操作,将卷积核中的权重与输入数据中的每个像素进行乘积并求和,得到一个输出值。不同的卷积核可以提取不同的特征,例如,边缘检测卷积核可以用于检测图像中的边缘,而纹理检测卷积核可以用于检测图像中的纹理。不同的卷积核可以提取不同的特征,因此在卷积神经网络中,通常会使用多种不同的卷积核来提取不同的特征。

2023-05-06 08:22:49 76

原创 【22-23 春学期】AI作业6-误差反向传播

计算图是用来表示计算过程的一种图形化语言,它将计算过程分解成一个个操作节点和数据节点,并将它们以图形的形式连接起来。深度学习模型的计算过程可以看作是由多个神经网络层组成的计算图,在训练过程中,计算图将输入数据和模型参数作为节点,通过不断地前向传播和反向传播过程,实现模型参数的更新和优化。在推理过程中,计算图将输入数据作为节点,通过前向传播过程,得到模型的输出结果。简单来说,反向传播将计算误差的过程从输出层反向传播到输入层,以便对每个神经元的权重进行调整,从而提高神经网络的准确性。

2023-04-26 08:43:05 82

原创 【22-23 春学期】AI作业5-深度学习基础

由于单层感知机使用sign函数,结构较为简单,不像sigmoid 函数那样以一定概率对结果进行输出,所以单层感知机效果与逻辑回归相比较差,泛化能力很差。逻辑回归的损失函数通常选用交叉熵损失函数,也可以选用均方差损失函数,而单层感知机则是基于误分类点到超平面的距离总和来构造损失函数。是机器学习中最为基础的方法之一,也可以认为是一种最为简单的神经网络,其模型结构与逻辑回归是一致的,都是多个输入,乘以权值求和再加上偏置,再经过激活函数得到输出,如下图所示。多层感知机最底层是输入层,中间是隐藏层,最后是输出层。

2023-04-19 08:44:50 139

原创 AI作业4-无监督学习

K均值聚类将样本集合划分为k个子集,构成k个类,将n个样本分到k个类中,每个样本到其所属类的中心距离最小,每个样本仅属于一个类,这就是k均值聚类,同时根据一个样本仅属于一个类,也表示了k均值聚类是一种硬聚类算法。简单的说,EM算法是在依赖于无法观测的隐藏变量的概率模型中,寻找参数最大似然估计或者最大后验估计的算法。当任意一个点的簇分配结果发生改变时,对数据集中的每个数据点,对每个质心,计算质心与数据点之间的距离,将数据点分配到距离其最近的簇,对每一个簇,计算簇中所有点的均值并将均值作为质心;

2023-04-12 09:21:33 163 1

原创 AI作业3-监督学习

我们知道,在机器学习中,常常用到“模型”的概念,实际上,模型就是假设空间中的一个函数。所以,为什么不直接学习一个模型,这个模型隐式地学习到一个分布,我们可以直接从这个模型中输出采样样本,且这些输出的样本就是从我们需要的分布中采样出来的呢?一个概念,如果存在一个多项式的学习算法能够学习它,学习的正确率仅比随机猜测略好,那么就称这个概念是弱可学习的。非常有趣的是,Schapire后来证明强可学习与弱可学习是等价的,也就是说,在PAC学习的框架下,一个概念是强可学习的充分必要条件是这个概念是弱可学习的。

2023-03-26 12:54:27 129

原创 AI作业2-监督学习

结构风险最小化结构风险最小化(structural risk minimization,SPM)是为了防止过拟合而提出来的策略。结构风险最小化等价于正则化(regularization)。结构风险在经验风险上加上表示模型复杂度的正则项(regularizer)或者罚项(penalty term)。在假设空间、以及训练数据集确定的情况下,结构风险的定义为:正则化如果我们没有足够的数据集(训练集)去约束这个变量过多的模型,那么就会发生过拟合。

2023-03-20 10:00:47 162

原创 AI作业1-ML基础

训练集中的目标是由人标注的。监督学习就是最常见的分类(注意和聚类区分)问题,通过已有的训练样本(即已知数据及其对应的输出)去训练得到一个最优模型(这个模型属于某个函数的集合,最优表示某个评价准则下是最佳的),再利用这个模型将所有的输入映射为相应的输出,对输出进行简单的判断从而实现分类的目的。虽然人们平时观测到的数据基本都是高维的,但实际上真正与学习任务的分布相关的往往是低纬度的分布。期望风险(expected risk)模型在所有可能出现的样本(包括训练集,测试集和其它未采集的样本)上的误差的均值。

2023-03-14 09:15:10 123 2

空空如也

空空如也

TA创建的收藏夹 TA关注的收藏夹

TA关注的人

提示
确定要删除当前文章?
取消 删除