卷积神经网络
回顾神经网络
该部分主要理解神经网络BP传播过程。对于数据是一batch一batch训练的,如果使用全部的 速度太慢,如果使用一个 不就是随机梯度下降了吗?这样需要训练的次数比较多,而且不能保证每一次都是走的最优的方向。一次使用batch的数据,然后求平均,对两种方法进行了综合。next:前向传播,传播到最后与Y比较获得loss 。NEXT:反向传播,计算梯度,更新W。
神经网络的组成
认识卷积层
对于卷积层 就是利用filter 对输入的数据一小块一小块的提取特征,利用filter对所有的数据都提取一遍后,构成一张特征图。这里需要注意fillter的深度和输入的深度读需要一样才可以。
当然我们不会只使用一个filter,而是使用多个filter,使用filter的个数决定了特征提取后,特征图的厚度。如下图所示: