深度学习(激活函数)

本文介绍了神经元的一般模型,强调激活函数的重要性。详细讨论了sigmoid及其改进型(包括sigmoid、sigmoid导数、Mesh和swish),以及relu及其改进型(relu、relu导数、Leaky relu、Prelu和ELU)。激活函数的选择应考虑非线性、可导性、单调性、有界性和计算效率等因素。对于初学者,推荐使用relu作为激活函数。
摘要由CSDN通过智能技术生成

欢迎大家关注我的B站:

偷吃薯片的Zheng同学的个人空间-偷吃薯片的Zheng同学个人主页-哔哩哔哩视频 (bilibili.com)

目录

1 神经元的一般模型

​ 2 激活函数的特点

3 常见激活函数

3.1 sigmoid及其改进型

3.1.1 sigmoid介绍

3.1.2 sigmoid的导数介绍

3.1.3 Mesh

3.1.4 swish

3.2 relu及其改进型

3.2.1 relu 介绍

3.2.2 relu的导数介绍

 3.2.3 Leaky relu

3.2.4 Prelu

3.2.5 ELU 

4 软饱和硬饱和

5 激活函数的选择


1 神经元的一般模型

一个基本的架构就是多个输入通过不同权重求加权和并加上偏置,这得到的结果通过一个非线性函数就得到了该神经元的输出。而这个非线性函数就是我们要讨论的激活函数

 2 激活函数的特点

(1)激活函数一般是非线性的,这样多层神经网络就能拟合出各

评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包

打赏作者

无意2121

创作不易,多多支持

¥1 ¥2 ¥4 ¥6 ¥10 ¥20
扫码支付:¥1
获取中
扫码支付

您的余额不足,请更换扫码支付或充值

打赏作者

实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值