- 博客(4)
- 收藏
- 关注
原创 神经网络与深度学习第五周总结
语义分割:找到同一画面中的不同类型目标区域。实例分割:同一类型目标要分出来具体实例(谁是谁);目标检测:标出来外包围矩形风格迁移问题方法:首先,我们初始化合成图像,例如将其初始化成内容图像。该合成图像是样式迁移过程中唯一需要更新的变量,即样式迁移所需迭代的模型参数。然后,我们选择一个预训练的卷积神经网络来抽取图像的特征,其中的模型参数在训练中无须更新。深度卷积神经网络凭借多个层逐级抽取图像的特征。我们可以选择其中某些层的输出作为内容特征或样式特征。
2023-04-16 16:36:02 87 1
原创 神经网络与深度学习第四周总结
网络一共有8层可学习层——5层卷积层和3层全连接层1)池化层均采用最大池化2)选用Relu作为非线性环节激活函数3)网络规模扩大,参数数量接近6000万4)出现“多个卷积层+一个池化层”的结构:随着网络深入,宽、高衰减,通道数增加。
2023-04-02 11:37:12 86
原创 神经网络与深度学习第三周总结
节点” 一般用来表示施加的数学操作,但也可以表示数据输入的起点 /输出的终点,或者是读取 /写入持久变量的终点。每个神经元对应5*5+1个参数,共6个feature map,28*28个神经元,因此共有(5*5+1)*6*(28*28)=122304连接。卷积层,其三个参数按顺序代表输入通道数、输出通道数、卷积核大小,若卷积核形状为正方形,则卷积核大小可以为int;否则,卷积核大小必须为元组(tuple)。:可以规定卷积的步长,与卷积核大小类似,若各方向步长相同则可以为整数,否则应为元组。
2023-03-25 20:35:43 41
原创 神经网络与深度学习第二周总结
多层前馈网络的反向传播(BP)学习算法,简称BP算法。网络结构:如图,u、y是网络的输入、输出向量,神经元用节点表示,网络由输入层、隐层、输出层结点组成,隐层可一层,也可以多层,前层至后层节点通过权连接,由于用BP学习算法,所以常称为BP神经网络。BP算法由正向传播和反向传播组成正向传播是输入信号从输入层经隐层,传向输出层,若输出层得到期望的输出,则学习算法结束;否则,转至反向传播。反向传播是将误差(样本输出与网络输出之差)按照原联接通路反向计算,由梯度下降法调整各层节点的权值和阈值,使误差减小。
2023-03-19 18:55:11 62 2
空空如也
空空如也
TA创建的收藏夹 TA关注的收藏夹
TA关注的人