pytorch学习笔记(激活函数)

本文介绍了PyTorch中的五种激活函数:Sigmoid、ReLU、Leaky ReLU和Maxout。Sigmoid函数存在梯度消失问题,而ReLU则能加速收敛但存在不可逆问题。Leaky ReLU是ReLU的改进版,而Maxout结合了ReLU的优点并减少其脆弱性,但参数增加导致模型存储增大。
摘要由CSDN通过智能技术生成

下面介绍五种激活函数:

Sigmoid

Sigmoid非线性激活函数的数学表达式是,其图形如下.sigmoid函数是将一个实数输入转化到0-1之间的输出,负数越大转化越靠近于0,越大的正数越靠近1.

 sigmoid 函数有两大缺点:

  • sigmoid 函数会造成梯度消失,当它靠近1和0的时候,梯度基本上会变为0 ,如果用梯度下降法的话,如果梯度接近0,那么没有任何信息来更新参数,这样会造成模型的不收敛。另外在初始化权重的时候也要注意,如果初始化权重过大,激活函数会导致大多数的神经元饱和,无法更新参数。
  • sigmoid 输出不以0为均值,这就会导致sigmoid激活函数之后的输出作为后面一层的输入全是整的,这就会导致梯度全都是正的,那么在更新参数的时候永远是正的。怎么理解呢?比如进入下一层神经元的输入是x,参数是w和b,那么输入就是f=wx+b,这个时候
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值