- 博客(9)
- 收藏
- 关注
原创 【22-23】春学期AI第8次作业
总之,低级特征、中级特征和高级特征都是卷积神经网络中非常重要的概念,不同层次的特征表达能够更好地表示图像的不同特征和信息,从而实现对图像的自动识别、分类和检测等任务。例如,在进行图像识别任务时,如果一个物体出现在图像的左上角和右下角,那么它们所对应的特征应该是相似的,因此可以使用相同的权重参数来处理它们。步长指的是卷积核每次滑动的距离,即在进行卷积操作时,卷积核每次移动的像素个数。在卷积神经网络中,每个卷积层的感受野都是由前一层的卷积核大小、步长和填充等参数决定的。
2023-05-17 12:35:50 78
原创 【22-23春学期】AI第七次作业
卷积核的原理是利用滑动窗口的方式对输入图像进行扫描,并通过计算权重系数来提取图像中的特征。在训练过程中,卷积神经网络会不断调整卷积核中的权重系数,以逐渐提高模型对图像特征的识别能力。在卷积神经网络中,通过使用卷积核进行滤波操作可以实现对不同尺寸、不同方向等多种特征的提取,从而实现特征选择的目的。在卷积过程中,卷积核会对输入图像进行滑动操作,并在每个位置上与输入图像的一部分进行加权平均计算,从而生成输出特征图。不同的卷积核可以实现不同的图像特征提取,从而对图像进行分类、检测、分割等任务。
2023-05-17 12:31:37 76
原创 【22-23春学期】AI作业6-误差反向传播
具体来说,反向传播从输出层开始,根据输出与标签之间的误差计算出每个神经元对误差的贡献,并将误差沿着网络向后传递,直到达到输入层。通过在计算图上进行前向传播和反向传播,我们可以高效地计算出复杂函数的梯度,并用于优化模型参数。其中,θ表示模型的参数,α表示学习率(控制每次更新的步长),∇J(θ)表示损失函数J对参数θ的梯度。该单元的数学表示为 Z [ l ] = W [ l ] A [ l − 1 ] + b [ l ] Z^{[l]} = W^{[l]}A^{[l-1]} +b^{[l]}Z。
2023-05-17 12:25:47 82 1
原创 【22-23春学期】AI第四次作业
由两个硬币的初始值0.6和0.5,容易得出投掷出5正5反的概率是pA=C(10,5)*(0.6^5)*(0.4^5),pB=C(10,5)*(0.5^5)*(0.5^5), pA/(pA+pB)=0.449, 0.45就是0.449近似而来的,表示第一组实验选择的硬币是A的概率为0.45。4、当迭代到一定次数,或者算法收敛到一定精度,结束算法,否则,回到第2步。K-means也需要进行E步骤和M步骤的迭代过程,但与传统的EM算法不同的是,K-means主要是用于聚类问题,并且其假设了簇的数量已经确定。
2023-04-19 13:38:49 91
原创 【22-23春学期】AI作业5-深度学习基础
交叉熵损失函数则是在分类问题中广泛使用的一种损失函数。如果没有使用激活函数,神经网络将只是执行简单的线性函数转换,其结果与具有相同数量的节点的线性模型相同。3.经典神经网络是一种基本的人工神经网络模型,它由输入层、隐藏层和输出层组成,每层之间的神经元都是完全连接的。具体来说,在训练过程中,它使用反向传播算法来计算每个权重和偏置对损失函数的梯度,并根据其梯度更新它们以改善模型的性能。前馈神经网络由一个或多个全连接层组成,其中每个神经元的输入仅来自上一层的所有神经元,并通过一个激活函数将其加权和转换为输出值。
2023-04-19 13:10:35 121 1
空空如也
空空如也
TA创建的收藏夹 TA关注的收藏夹
TA关注的人