全连接前馈神经网络缺点:参数太多、很难提取局部不变特征
卷积神经网络
如何实现局部连接和权重共享? 卷积 其中W_i称为滤波器或者卷积核
举例:
卷积扩展:是因为卷积的维度不够灵活 每次只能卷m-k+1维的数据( m为向量的总维数 k是滤波器的个数 ) 因此引入滑动步长S 零填充P 滑动步长为每隔s次个计算一下卷积 P如果想计算第一个的卷积在第一个卷积前进行填充足够k-1个零
两维卷积
卷积作为特征提取器 高斯矩阵做平滑处理 这些都是人为设定的 但是希望在神经网络中是可以自动学习的
什么是卷积神经网络 就是用卷积层代替全连接层 假设滤波器的个数为k=3 连接数为 (m-k+1)*3 参数个数为3 +1 1代表bias
计算卷积需要进行卷积核翻转 卷积操作的目标:提取特征 但是实际操作并不需要翻转 引入互相关 与卷积操作唯一不同的是 互相关没有翻转
多个卷积核 映射MXNXD称为张量 tensor
卷积层的映射关系
汇聚层 pooling maxpooling 所以使用pooling 早期可以减少神经元 一般划分区域 选最大的元素 称为 maxpooling 但是现在可以通过汇聚层进行替代
卷积神经网络结构
卷积神经网络与表示学习很相似
其他卷积种类:
转置卷积/微步卷积
空洞卷积 增加感受野 汇聚操作会有信息损失