单层神经网络的工作原理
一个例子
首先用两个不同过滤器对一个三维输入进行卷积计算
现在将得到的两个输出变成单层卷积神经网络,需要对每一个输出添加一个 偏差(bias)。
这里的偏差是一个实数,使用广播机制,对每个输出里的16个元素添加同样的偏差。再对每一个输出添加非线性转换(ReLU)。
再将两个4x4的输出矩阵放在一起形成一个4x4x2 的输出。
将输入的6x6x3图像看作a[0],经过一层神经网络的传播(上文的计算流程),得到4x4x2的输出看作a[1]。这就是一层卷积神经网络。
再这个例子中有两个filter过滤器&#x