深度学习中常用的激励函数

本文介绍了深度学习中激励函数的重要性,通过引入非线性,神经网络能更好地处理非线性数据。常见的激励函数包括sigmoid、tanh、ReLU、Leaky ReLU和ELU,它们各有优缺点。ReLU因其简单高效在深度学习中广泛使用,但可能面临神经元死亡问题。ELU和Leaky ReLU则尝试解决这一问题。Maxout函数作为ReLU的泛化,兼顾效果和计算量。
摘要由CSDN通过智能技术生成

—— 原文发布于本人的微信公众号“大数据与人工智能Lab”(BigdataAILab),欢迎关注。

 

182920_AW5j_876354.png

我们知道深度学习的理论基础是神经网络,在单层神经网络中(感知机),输入和输出计算关系如下图所示:
182932_BbjI_876354.png 
可见,输入与输出是一个线性关系,对于增加了多个神经元之后,计算公式也是类似,如下图:
182940_bxUt_876354.png 
这样的模型就只能处理一些简单的线性数据,而对于非线性数据则很难有效地处理(也可通过组合多个不同线性表示,但这样更加复杂和不灵活),如下图所示:

评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值