matlab用relu函数优化逻辑回归_神经网络中常见的激活函数

本文探讨了神经网络中的激活函数,强调了非线性变换的重要性。激活函数包括sigmoid、tanh、ReLU、leakyReLU、ELU和MaxOut,其中ReLU因其避免梯度消失而常见,但可能导致神经元失活。文章建议在深度网络中慎用sigmoid和tanh,而leakyReLU和ELU则需要适当调整超参数。
摘要由CSDN通过智能技术生成

一:什么是激活函数

在神经网络中,每个节点的输入是上一层节点输出值的线性组合,该节点的输出值是该线性组合进行非线性变换后的值。对线性组合进行非线性变换的函数就是本文要讨论的激活函数。如图1-1所示,就是一个神经元节点,它接收一个线性组合的值,然后通过激活函数f,再输出激活后的值。

ed98d540c73a459756c44e9bbfb5b792.png

图1-1

二:激活函数的作用

激活函数在神经网络中起到了非线性映射的作用,使神经网络能够提取充分的特征。如果不使用激活函数,神经网络不能解决非线性问题。如图2-1所示,是使用激活函数和不使用激活函数在非线性数据上的表现。

aeac8da4dd86e158abcce7056c50b2a3.png

图2-1

激活函数必须是非线性函数。神经网络模型是一种层次模型,如果激活函数是线性函数,那么多层的神经网络和一层的神经网络是等价的,并不能发挥神经网络逐层提取特征的优势。下面我们简单证明一下,如果激活函数是线性函数,那么多层神经网络和一层神经网络是等价的。

如图2-2所示,是一个只含有一层隐层的全连接神经网络

f872b87cfa7158b038a368ee3c0d0885.png

图2-2

我们设激活函数110afd6e9882b4bab8135e85773f55e5.png,该神经网络的输出值是a953d707a5746ec3b33f637e605dfd06.png我们删除隐层,得到如图2-3所示的神经网络

64310d7fa797bf7fc0372c3e1d449876.png

图2-3

该神经网络的输出值是

评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值