Coursera Deeplearning.ai「深度学习」课程笔记L4.W2深度卷积神经网络:实力探究

1 - 残差网络(Residual Networks (ResNets))

png
如上图所示, x x x表示输入, F ( x ) F(x) F(x) 表示残差块在第二层激活函数之前的输出,即 F ( x ) = W 2 σ ( W 1 x ) F(x)=W_2\sigma(W_1x) F(x)=W2σ(W1x),其中 W 1 W_1 W1 W 2 W_2 W2 表示第一层和第二层的权重, σ \sigma σ 表示 ReLU 激活函数(这里省略了 bias)。最后残差块的输出是 σ ( F ( x ) + x ) \sigma(F(x)+x) σ(F(x)+x)

评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值