这是我的第一篇技术博客!
在学习吴恩达老师的深度学习课程中的卷积神经网络的建模部分,我遇到了一个问题,就是在不使用深度学习框架的情况下做CNN的前馈时,搞不清楚循环和各变量的维度之间的关系,比如下面这个过程:
最好的方法其实就是把问题化简,看其最小、最本质的步骤是什么,就是如上图所示的过程,看输出层的单个例子、单个通道的特定一点 z [ i , h , w , c ] z[i,h,w,c] z[i,h,w,c]是怎么得来的,具体实现代码如下:
def conv_forward(A_prev, W, b, hparameters):
"""
Implements the forward propagation for a convolution function
Arguments:
A_prev -- output activations of the previous layer,
numpy array of shape (m, n_H_prev, n_W_prev, n_C_prev)
W -- Weights, numpy array of shape (f, f, n_C_prev, n_C)
b -- Bi