深度学习基础:激活函数选取

本文探讨了激活函数在神经网络中的重要性,如S型(Sigmoid,Tanh)、ReLU及其变体、Maxout以及自动搜索的Swish。同时,介绍了良好的参数初始化方法,如随机初始化、标准初始化、Xavier初始化(适用于Sigmoid和Tanh)和MSRA初始化(适用于ReLU)以优化网络性能。
摘要由CSDN通过智能技术生成

背景

如果没有选取激活函数,那么神经网络的层数的累积还是线性的;但选取激活函数后,神经网络具有非线性的性质。

激活函数种类

S型激活函数 (Sigmoid, Tanh)

“加班”激活函数(ReLU, Leaky ReLU, ELU,  GELU)

ReLU (可能会陷入Dead)

ELU 计算量较大

Maxout激活函数

自动搜索激活函数(Swish)

参数初始化 

好的参数初始化:各层激活值不能为0,也不会出现饱和;每层的权重方差、梯度与层数无关,会更加有利于优化。

简单的初始化方法:随机初始化 np.random.randn(n);标准初始化(配合归一化)等

Xavier初始化:课程的激活值和梯度的方差在传播过程中保持一致,适合Sigmoid,Tanh函数

MSRA初始化:适合ReLU

评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值