激活函数总结

Sigmoid函数 f(x)=1/1+e^-x

值(0-1)缺点  存在饱和问题

实现:tf.nn.sigmoid(x,name=None)

特征相差不大,需要更细微的分类判断 sigmoid效果要好一些

Tanh函数  双曲正切 tanh(x)=2Sigmoid(2x)-1

值(-1,1) 缺点 存在饱和问题

实现: tf.nn.tanh(x,name=None)

 

tanh在特征明显是效果比较好

Relu函数 f(x)=max(o,x)  (0-正无穷)

优点  忽略负向信号,有很好拟合效果 

shixian: tf.nn.relu(features,name=None)

tf.nn.relu6(features,name=None) relu6出现原因是为了防止梯度爆炸

 

经过其处理的数据有更好的稀疏性,以稀疏性数据表达数据特征的方法,会使神经网络在迭代运算中取得又好又快地效果

Softplus函数 f(x)=ln(1+e^x)

(0-正无穷)

优点:函数更加平滑,保留了一部分负向数据,缺点 计算量非常大

tf.nn.softplus(features,name=None)

Noisy relus f(x)=max(0,x+y)

为max加了一个高斯分布噪声

tf.

Leaky relus f(x)= x(x>=0),ax(x<0)

 

在relu基础上保留了一部分负值,对负信号不是一味拒绝,而是缩小

tf.maximun(x,leak*x,name=name)

Elus 函数  

当x小于0做了更复杂的变换,优点,收敛速度比relu 快,不使用批处理比使用批处理能够获得更好的效果,拟合效果更好

tf.nn.elu(features,name=None)

Swish函数 

优点:效果更有优于relu函数

def Swish(x,beat=1):

      return x*tf.nn.sigmoid(x*beat)

 

 

  

 

  • 0
    点赞
  • 1
    收藏
    觉得还不错? 一键收藏
  • 0
    评论
leakyrelu激活函数是一种常用的激活函数之一,它是ReLU函数的一种变体。它的图像可以描述如下:在输入小于0的区间,leakyrelu函数的输出是一个小的线性系数乘以输入值;而在输入大于等于0的区间,leakyrelu函数的输出与输入值相等。这个小的线性系数通常取一个较小的正数,比如0.01。这样设计的目的是为了在输入小于0的情况下,避免ReLU函数的神经元“死亡”,使得梯度能够在这个区间内有一个非零的值,从而高模型的收敛速度和性能。<span class="em">1</span><span class="em">2</span><span class="em">3</span> #### 引用[.reference_title] - *1* *3* [深度学习激活函数总结(sigmoid,tanh,ReLU,Leaky ReLU,EReLU,PReLU,Softmax,Swish,Maxout,...](https://blog.csdn.net/winter2121/article/details/122326697)[target="_blank" data-report-click={"spm":"1018.2226.3001.9630","extra":{"utm_source":"vip_chatgpt_common_search_pc_result","utm_medium":"distribute.pc_search_result.none-task-cask-2~all~insert_cask~default-1-null.142^v93^chatsearchT3_2"}}] [.reference_item style="max-width: 50%"] - *2* [机器学习中的数学——激活函数(四):Leaky ReLU函数](https://blog.csdn.net/hy592070616/article/details/120617996)[target="_blank" data-report-click={"spm":"1018.2226.3001.9630","extra":{"utm_source":"vip_chatgpt_common_search_pc_result","utm_medium":"distribute.pc_search_result.none-task-cask-2~all~insert_cask~default-1-null.142^v93^chatsearchT3_2"}}] [.reference_item style="max-width: 50%"] [ .reference_list ]
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值