- 博客(9)
- 收藏
- 关注
原创 卷积神经网络CNN-激励层
CNN卷积神经网络的激励层(激活层),包括ReLU、Sigmoid、Softmax、Tanh激活函数的详解和优缺点,以及不同激活函数之间的区别,梯度消失和梯度爆炸,饱和激活函数和非饱和激活函数,ReLU是线性还是非线性激活函数,为什么ReLU看似线性的激活函数能够增加非线性的表达能力。
2023-02-07 01:37:26 1488
空空如也
空空如也
TA创建的收藏夹 TA关注的收藏夹
TA关注的人
CNN卷积神经网络的激励层(激活层),包括ReLU、Sigmoid、Softmax、Tanh激活函数的详解和优缺点,以及不同激活函数之间的区别,梯度消失和梯度爆炸,饱和激活函数和非饱和激活函数,ReLU是线性还是非线性激活函数,为什么ReLU看似线性的激活函数能够增加非线性的表达能力。
2023-02-07 01:37:26 1488
TA创建的收藏夹 TA关注的收藏夹
TA关注的人