- 博客(3)
- 收藏
- 关注
转载 深度学习记录3
以往池化的大小PoolingSize与步长stride一般是相等的,例如:图像大小为256*256,PoolingSize=2×2,stride=2,这样可以使图像或是FeatureMap大小缩小一倍变为128,此时池化过程没有发生层叠。ResNet的种类是很多的,如ResNet-18,ResNet-34,ResNet-50,ResNet-101,ResNet152等。传统的神经网络中,尤其是图像处理方面,往往使用非常多的卷积层、池化层等,每一层都是从前一层提取特征,所以随着层数增加一般会出现退化等问题。
2023-04-05 14:54:59
33
1
转载 深度学习记录2
卷积核的大小通常为奇数,常用的有3x3或者7x7,在YOLO中使用的是7x7的卷积核,需要指出的是,三层3x3大小的卷积核可以获得与单个7x7卷积核相同的效果,而需要学习的参数量却极大地缩减,假设卷积层的输入输出通道是C,单个7x7卷积层需要49个参数,参数量比三层3x3卷积堆叠层的27。对于用来分类CIFAR-10中的图像的卷积网络,其最后的输出层的维度是1x1x10,因为在卷积神经网络结构的最后部分将会把全尺寸的图像压缩为包含分类评分的一个向量,的维度是32x32x3(宽度,高度和深度)。
2023-03-26 22:52:28
34
转载 深度学习记录1
net=BPNetModel(n_feature=n_feature,n_hidden=n_hidden,n_output=n_output)#调用网络。print(f"第{epoch}次训练,loss={running_loss}".format(epoch,running_loss))loss_steps=np.zeros(epochs)#构造一个array([0., 0., 0., 0., 0.])里面有epochs个0。loss_steps[epoch]=loss.item()#保存loss。
2023-03-19 22:28:14
37
1
空空如也
空空如也
TA创建的收藏夹 TA关注的收藏夹
TA关注的人