深度学习入门~核对矩阵维数

核对矩阵维数

  • 以一个五层神经网络为例:
    在这里插入图片描述
    注:目前我们看到的神经网络只有一个输出神经元。
    从神经网络的第一层开始看起:
    显然,第一层计算的Z^[1] = W^[1[ * x + b^[1]Z^[1]是一个(3,1)的矩阵(此处我们暂时不使用向量化的方法使多组输入进入到神经网络中),也可写作(n^[1],1)矩阵。而对于x,由于有两个特征量,x是一个(n^[0],1)也就是(2,1)的矩阵。显然,在此处,使用W^[1]矩阵和一个(2,1)的矩阵相乘得到一个(3,1)的矩阵,故矩阵W^[1]是(3,2)的矩阵,即(n^[1],n^[0])的矩阵。
    W^[l]的维数一定会是(n^[l],n^[l-1])的,而b^[l]的维数一定会是(n^[l],1)的,这样才能实现矩阵乘法和矩阵加法。同样,如果做反向传播,dW和db的维数一定和对应的W和b相同。而a^[l]是由z^[l]通过激活函数计算得到的,因此二者的维数相同。
  • 而如果使用向量化的方法,Z^[1]矩阵的维数不再是(n^[1],1)而变为(n^[1],m),其中m为训练集的大小。但W^[1]的维数不变,X变为(n^[0],m),b^[1]的维数不变,因为通过numpy的广播可以将它拓展为(n^[1],m)的矩阵。而Z^[l]A^[l]的维数变为(n^[l],m),它们的导数和它们维数相同。
  • 0
    点赞
  • 0
    收藏
    觉得还不错? 一键收藏
  • 0
    评论

“相关推荐”对你有帮助么?

  • 非常没帮助
  • 没帮助
  • 一般
  • 有帮助
  • 非常有帮助
提交
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值