激活函数高频面试题集合

激活函数在神经网络中引入非线性,提升模型表达能力。ReLU因计算效率高和缓解梯度消失问题而广泛使用。Gelu是Bert、GPT和GPT2等模型的选择。Transformer的FFN层通常使用ReLU。dropout通常在激活函数后应用,防止过拟合。
摘要由CSDN通过智能技术生成

激活函数的作用是什么?

最主要的是引入了非线性因素,可以提高模型的表达能力。
如果没有激活函数,那么模型就只有线性变换,可想而知线性模型能表达的空间是有限的。而激活函数引入了非线性因素,比线性模型拥有更大的模型空间。

常用的激活函数

Relu,Gelu,leaky relu,softmax,sigmoid,tanh

Relu

引入Relu的原因

第一,采用sigmoid等函数,算激活函数时(指数运算),计算量大,反向传播求误差梯度时,求导涉及除法,计算量相对大,而采用Relu激活函数,整个过程的计算量节省很多。

第二,对于深层网络,sigmoid函数反向传播时,很容易就会出现 梯度消失 的情况(在sigmoid接近饱和区时,变换太缓慢,导数趋于0,这种情况会造成信息丢失),从而无法完成深层网络的训练。

第三,ReLu会使一部分神经元的输出为0,这样就造成了 网络的稀疏性,并且减少了参数的相互依存关系,缓解了过拟合问题的发生。网络的稀疏性可以理解为让不同的神经元各司其职。

Relu顺序

一般是卷积-BN-Relu.
Sigmoid:如果先BN再Sigmoid,由于BN后方差接近于1,均值接近于0,使得BN后的数据接近于Sigmoid的线性区域,降低了激活函数的非线性能力,这种情况下建议Sigmoid+BN。

Relu:如果先Relu再BN,Relu后部分神经元已经失活,失活的神经元将对BN的归一化产生影响,这种情况下建议BN+Relu。

relu在零点可导吗,不可导如何进行反向传播?

不可导,人为将梯度规定为0.

import numpy as np
import matplotlib.pyplot as plt

def relu(x):
    return np.maximum(0, x)

x = np.linspace(-10, 10, 100)
y = relu(x)

plt.plot(x, y)
plt.xlabel('x')
plt.ylabel('ReLU(x)')
plt.title('ReLU Function')
plt.grid()
plt.show()

在这里插入图片描述

Gelu

import numpy as np
import matplotlib.pyplot as plt

def gelu(x):
    return 0.5 * x * (1 + np.tanh(np.sqrt(2/np.pi) * (x + 0.044715 * np.power(x, 3))))

x = np.linspace(-10, 10, 100)
y = gelu(x)

plt.plot(x, y)
plt.xlabel('x')
plt.ylabel('GeLU(x)')
plt.title('GeLU Function')
plt.grid()
plt.show()

在这里插入图片描述

leaky relu

优点

该方法与ReLU不同的是在x小于0的时候取f(x) = ax,其中a是一个非常小的斜率(比如0.01)。这样的改进可以使得当x小于0的时候也不会导致反向传播时的梯度消失现象。

缺点

无法避免梯度爆炸的问题。
神经网络不学习\alphaα值。
在求导的时候,两部分都是线性的。

import numpy as np
import matplotlib.pyplot as plt

def leakyrelu(x, alpha=0.01):
    return np.maximum(x, alpha * x)

x = np.linspace(-10, 10, 100)
y = leakyrelu(x)

plt.plot(x, y)
plt.xlabel('x')
plt.ylabel('LeakyReLU(x)')
plt.title('LeakyReLU Function')
plt.grid()
plt.show()

在这里插入描述

softmax

sigmoid

如下图所示,其值域为 (0,1)(0,1)。也就是说,输入的每个神经元、节点都会被缩放到一个介于0和1之间的值。

当x大于零时输出结果会趋近于1,而当x小于零时,输出结果趋向于0,由于函数的特性,经常被用作二分类的输出端激活函数。

缺陷

当输入数据很大或者很小时,函数的梯度几乎接近于0,这对神经网络在反向传播中的学习非常不利。
Sigmoid函数的均值不是0,这使得神经网络的训练过程中只会产生全正或全负的反馈。
导数值小于1,反向传播易导致梯度消失。

import numpy as np
import matplotlib.pyplot as plt

def sigmoid(x):
    return 1 / (1 + np.exp(-x))

x = np.linspace(-10, 10, 100)
y = sigmoid(x)

plt.plot(x, y)
plt.xlabel('x')
plt.ylabel('Sigmoid(x)')
plt.title('Sigmoid Function')
plt.grid()
plt.show()

在这里插入图片描述

tanh

缺点

导数值小于1,反向传播易导致梯度消失。

import numpy as np
import matplotlib.pyplot as plt

def tanh(x):
    return np.tanh(x)

x = np.linspace(-10, 10, 100)
y = tanh(x)

plt.plot(x, y)
plt.xlabel('x')
plt.ylabel('tanh(x)')
plt.title('Hyperbolic Tangent Function')
plt.grid()
plt.show()

在这里插入图片描述

如何选择激活函数

用于分类器时,二分类为Sigmoid,多分类为Softmax,这两类一般用于输出层;
对于长序列的问题,隐藏层中尽量避免使用Sigmoid和Tanh,会造成梯度消失的问题;
Relu在Gelu出现之前在大多数情况下比较通用,但也只能在隐层中使用;
现在隐藏层中主要的选择肯定优先是Gelu、Swish了。
不过大部分情况下论文用什么就用什么了。

Bert、GPT、GPT2中用的激活函数是什么?为什么?

Gelu

transformer FFN层用的激活函数是什么?为什么?

dropout在激活函数之前做,还是激活函数之后做?

评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值