神经网络参数更新公式推导(二) ——全连接深度神经网络

一、引言

       与仅包含一层隐含层的网络不同,深度神经网络一般采用的激活函数为ReLU而不是Sigmoid函数,并且没有了阈值,而在每一层的输出上加上了偏置(Bias)。对于三层神经网络中隐层的节点,其输入首先要与阈值作差,然后将差值输入到激活函数(Sigmoid)中。虽然都是采用BP算法进行更新,但三层网络更新的是权重和阈值,而深度网络中更新的是权重矩阵和偏置。此外,由于是多层隐含层,所以需要在更新当前层的时候用到后面一层的信息,需要明确给出权重矩阵和偏置的更新公式。

二、输入变换

       1. 以卷积神经网络为例,输入为m行n列c通道的图像,总图像数目为K;

       2. 将每张图像拉直成一个行向量,维度大小为1*m*n*c,记l=1*m*n*c;

       3. 这样,所有图像组成一个矩阵,表示如下:

                                                

  • 2
    点赞
  • 6
    收藏
    觉得还不错? 一键收藏
  • 0
    评论

“相关推荐”对你有帮助么?

  • 非常没帮助
  • 没帮助
  • 一般
  • 有帮助
  • 非常有帮助
提交
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值