首先,卷积神经网络从低层到高层过程中,先是通过卷积层的卷积核提取低级特征(如垂直边缘特征,水平边缘特征,颜色等局部特征),随着层数加深,慢慢实现层边缘特征到局部特征的转换(在中间主要靠池化层扩大感受野),到了全连接层,就逐渐实现将多个部分特征(即每个特征图代表一种特征)组合为整体的转变。
重点是,最初卷积层是如何提取多个特征?
因为随机初始化权重导致不同的卷积核有不同的参数,而后更新的过程中导致它们的差别越来越大。(每层的多个卷积核组合在一起就相当于该层的权重矩阵,卷积核随机化就是对权重的初始化)
随机初始化带来的结果是,不同的filter面对相同的输入会产生有差异的输出,这一差异让损失函数的反向传播对同一层的多个卷积核有不同的倾向,最终的结果就是学习到不同的特征。