卷积神经网络(CNN)

一、卷积层

卷积层:提取特征

池化层:压缩特征

 这个只演示了一层

每个通道各自提取(R,G,B三个通道),整合(三层结果相加)

 padding是为了让边界点利用次数更多,padding = 1是边界填充一圈0(为什么添加0呢,因为0不会对原结果造成影响)

卷积核个数决定得多少个特征图,10个卷积核就是10个特征图

二、池化层

 maxpool最大池化是选择最大的权重,因为其是最好的特征,就没必要平均池化了(为什么要将最好的特征给平均了呢,没必要吧)

三、 

只有带参数的东西才能称为一层,例如conv和FC。Relu,pool不算,所以共七层

四、

1.Alexnet    2012年的

了解有这个东西就好,没什么用的网络 ,太老了,问题很大

2.vgg    2014年的  相比于Alexnet有很大改变

所有卷积核大小都是3*3

 池化层损失的特征,用下次更多数据填补,缺点是训练时间长,但精度比Alexnet高

 五、卷积核大小的影响

堆叠小的卷积核,参数少一些,而且训练过程还快一些,三次卷积可以增加三层relu,线性改变很多,权重不会改变

六、卷积神经网络简单代码实现

  • 0
    点赞
  • 0
    收藏
    觉得还不错? 一键收藏
  • 0
    评论

“相关推荐”对你有帮助么?

  • 非常没帮助
  • 没帮助
  • 一般
  • 有帮助
  • 非常有帮助
提交
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值