邱锡鹏 神经网络与深度学习课程【七】——卷积神经网络1和2

全连接前馈神经网络缺点:参数太多、很难提取局部不变特征

 卷积神经网络

 如何实现局部连接和权重共享? 卷积 其中W_i称为滤波器或者卷积核

 

 举例:

 卷积扩展:是因为卷积的维度不够灵活 每次只能卷m-k+1维的数据( m为向量的总维数 k是滤波器的个数 ) 因此引入滑动步长S 零填充P 滑动步长为每隔s次个计算一下卷积 P如果想计算第一个的卷积在第一个卷积前进行填充足够k-1个零

 

 两维卷积

 卷积作为特征提取器 高斯矩阵做平滑处理 这些都是人为设定的 但是希望在神经网络中是可以自动学习的

 

 什么是卷积神经网络 就是用卷积层代替全连接层 假设滤波器的个数为k=3 连接数为 (m-k+1)*3 参数个数为3 +1 1代表bias

 计算卷积需要进行卷积核翻转 卷积操作的目标:提取特征 但是实际操作并不需要翻转 引入互相关  与卷积操作唯一不同的是 互相关没有翻转

 

多个卷积核 映射MXNXD称为张量 tensor

 卷积层的映射关系

 

汇聚层 pooling maxpooling 所以使用pooling 早期可以减少神经元 一般划分区域 选最大的元素 称为 maxpooling 但是现在可以通过汇聚层进行替代

 卷积神经网络结构

 卷积神经网络与表示学习很相似

 其他卷积种类:

转置卷积/微步卷积

 空洞卷积 增加感受野 汇聚操作会有信息损失

 

  • 0
    点赞
  • 3
    收藏
    觉得还不错? 一键收藏
  • 0
    评论

“相关推荐”对你有帮助么?

  • 非常没帮助
  • 没帮助
  • 一般
  • 有帮助
  • 非常有帮助
提交
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值