自定义博客皮肤VIP专享

*博客头图:

格式为PNG、JPG,宽度*高度大于1920*100像素,不超过2MB,主视觉建议放在右侧,请参照线上博客头图

请上传大于1920*100像素的图片!

博客底图:

图片格式为PNG、JPG,不超过1MB,可上下左右平铺至整个背景

栏目图:

图片格式为PNG、JPG,图片宽度*高度为300*38像素,不超过0.5MB

主标题颜色:

RGB颜色,例如:#AFAFAF

Hover:

RGB颜色,例如:#AFAFAF

副标题颜色:

RGB颜色,例如:#AFAFAF

自定义博客皮肤

-+
  • 博客(2)
  • 收藏
  • 关注

原创 几个比较经典的CNN简要比较分析

由于在上述Vgg中存在难以进一步深入学习的问题,于是就有人(何恺明)在前人基础上提出了Resnet,创新点主要在于引入了残差块(Residual Block)和跳跃连接(Skip Connection),以解决上述问题。由图也能看到,从18层已经可以到152层了。AlexNet包含8层,前5层里面都是卷积层和最大池化层的混搭,最后3层是全连接层。除最后一层外,网络被分成两个副本,分别运行在一个GPU上。为残差,在训练过程中可以直接调为0,就约等于跳过这个块了。D为Vgg16,E为Vgg19,如下表。

2024-02-26 20:39:09 920

原创 CNN(Convolutional Neural Networks)基础知识大致总结

上述为一个通道(channel)上进行的操作,像图这样的一般来说就是RGB三个通道,一次卷积中有几个通道就有几个卷积核,且一次卷积中卷积核长宽应一致。计算池化窗口内平均值作为输出,不过比max用的更少,因为他准确度没有max好,(这俩对算力的要求哪个大?传统输入为直接的向量,直接一列,一个特征,而CNN不会,CNN会将输入的h×w×c的样本进行提取特征。由输入层,卷积层(提取特征),池化层(压缩特征),全连接层组成。挂在卷积层后面,每个卷积层后面挂一个,常见的用在CNN里面的有。各有优劣,这里不再赘述。

2024-02-26 20:33:12 818 1

空空如也

空空如也

TA创建的收藏夹 TA关注的收藏夹

TA关注的人

提示
确定要删除当前文章?
取消 删除