Deep Learning (Yoshua Bengio, Ian Goodfellow, Aaron Courville) 翻译 Part 2 第6章

本文深入探讨了深度学习中的隐藏单元,重点关注ReLU及其推广。解释了ReLU非线性在梯度训练中的作用,以及sigmoid和tanh激活函数在不同场景的应用。此外,还讨论了神经网络架构设计中的单元数量和连接方式,强调了深度模型的泛化能力。
摘要由CSDN通过智能技术生成

6.3 hidden units

RELU是hidden单元很好的默认选择,rectified linear函数在0点不是可微分的,这貌似会使rectified linear函数不能使用基于梯度的训练算法,而实践中,梯度下降仍然表现很好。
因为我们不期望训练达到一个梯度为0的点,cost函数的最小值在一个未定义的梯度是可以接受的,隐藏单元不能微分的情况一般是只在几个少数的点,在一个点是可微分的只有这点的左右导数相等。
大多数隐藏单元接受一个向量输入x,进行转换z=Wx+b,然后应用非线性激活函数g(z)

6.3.1 Rectified Linear Units and Their Generalizations

RELU
初始化参数的时候,最好把b的所有元素都设置比较小,正值,比如0.1

6.3.2 logistic sigmoid and hyperbolic tangent

评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值