残差网络(ResNet)---cpu下的结果

先总结:

残差块允许相对于恒等函数f(x)=x的参数化。

•添加残差块可以通过有效的方式增加功能复杂性。

•我们可以通过让残差块通过跨层数据通道来训练有效的深层神经网络。

•resnet对以后的深层神经网络的设计产生了重大影响,无论是卷积性质还是序列性质。

跑的结果:
training on cpu
epoch 1, loss 0.0030, train acc 0.791, test acc 0.839, time 11532.3 sec
epoch 2, loss 0.0011, train acc 0.892, test acc 0.872, time 10040.7 sec
epoch 3, loss 0.0009, train acc 0.915, test acc 0.842, time 7879.8 sec
epoch 4, loss 0.0007, train acc 0.932, test acc 0.884, time 6860.5 sec
epoch 5, loss 0.0006, train acc 0.945, test acc 0.897, time 6763.6 sec

实现后的“残差网络”:

Sequential(
  (0): Sequential(
    (0): Conv2d(1, 64, kernel_size=(7, 7), stride=(2, 2), padding=(3, 3))
    (1): BatchNorm2d(64, eps=1e-05, momentum=0.1, affine=True, track_running_stats=True)
    (2): ReLU()
    (3): MaxUnpool2d(kernel_size=(3, 3), stride=(2,

  • 0
    点赞
  • 0
    收藏
    觉得还不错? 一键收藏
  • 0
    评论
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值