第二星期第一天

在这里插入图片描述
在这里插入图片描述
Tanh函数解决了Sigmoid函数输出不是0均值的问题,但是没有解决梯度消失和指数运算的问题。
一般在二分类问题中,隐藏层用Tanh函数,输出层用Sigmoid函数。
在这里插入图片描述
Leaky ReLu函数在左侧给了一个很小的导数,他的优点与ReLu类似:
1)没有饱和区,不存在梯度消失问题。
2)没有指数运算,计算快。
3)收敛速度快,速度是Sigmoid和Tanh的6倍。
4)不会造成神经元失效,形成“死神经元”。
系数0.01可调,但不会太大。

***论文中出现的几个名词**斜体样式

在这里插入图片描述
https://blog.csdn.net/taigw/article/details/51401448

在这里插入图片描述
https://blog.csdn.net/sinat_22510827/article/details/80194620

评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值