深度学习-浅层神经网络

目录

概念

正向传播

​反向传播


概念

单隐藏层神经网络就是典型的浅层(shallow)神经网络,即只包含一层隐含层。

 从左到右,可以分成三层:输入层(Input layer),隐藏层(Hidden layer)和输出层(Output layer)。输入层和输出层,对应着训练样本的输入和输出。隐藏层是抽象的非线性的中间层,这也是其被命名为隐藏层的原因。

正向传播

通过输入层输入的值计算出隐含层和输出层的输出的过程,其中隐含层通过激活函数计算输出。

常用的激活函数有以下几个:

(1)sigmoid函数:二分类问题,一般选择sigmoid函数

这里写图片描述

 (2)tanh函数:相对于sigmoid函数来说表现要好一点,取值在【-1,1】之间,隐含层的输出就被限制在这个范围,起到了对数据归一化的操作。

这里写图片描述

(3)LeLu函数:ReLU激活函数在z大于零时梯度始终为1;在z小于零时梯度始终为0;z等于零时的梯度可以当成1也可以当成0,实际应用中并不影响。对于隐藏层,选择ReLU作为激活函数能够保证z大于零时梯度始终为1,从而提高神经网络梯度下降算法运算速度。

这里写图片描述

(4)Leaky ReLU函数

这里写图片描述
反向传播

反向传播主要是通过梯度下降法来改变权值和阈值的过程,梯度就是求导的意思

这里写图片描述

注意:神经网络模型中的参数权重W是不能全部初始化为零的,b可初始化为0

  • 1
    点赞
  • 12
    收藏
    觉得还不错? 一键收藏
  • 0
    评论

“相关推荐”对你有帮助么?

  • 非常没帮助
  • 没帮助
  • 一般
  • 有帮助
  • 非常有帮助
提交
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值