Tensorflow基础代码报错学习笔记5——activation function

原教程地址
关于激励函数的概念up讲的很通俗易懂,我在这里做个小小的文字版笔记,感兴趣自己去看视频更加简洁明了(因为没有授权所以我也不想把视频内容截图搬运过来)

激励函数

一、简单概念

激励函数用于解决代码学习过程中不能用线性方程概括的问题(用于掰弯线性函数y=Wx
y=AF(Wx)
AF()包括:relu,sigmod,tanh

二、注意事项

(1)可以建立自己的激励函数但是要确保这些激励函数可以微分
因为当误差反向传递的时候只有这些可微的激励函数才可以把误差的传递回去
(2)当神经网络层数较少时,隐藏层可以任意选择激励函数
(3)当神经网络层数较多时,隐藏层不可以随便选择激励函数,因为会导致梯度爆炸与梯度消失的问题

三、首选激励函数选择

在少量层结构中,我们可以尝试很多不同的激励函数:
(1)卷积神经网络的卷积层中推荐:relu
(2)在循环神经网络结构中推荐:relu或tanh

  • 0
    点赞
  • 0
    收藏
    觉得还不错? 一键收藏
  • 0
    评论
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值