论文实现:实验精度远小于paper上的精度

问题描述:该代码实现了Temporal-Ensembling-for-Semi-Supervised-Learning论文,但是在用该代码跑一遍之后,val acc最高精度只有64%远小于paper上的精度(window下 train num=1000, val num=200, svhn)。

猜测:

  1. 最开始觉得模型容量不够(该paper所用的模型比较简单,层比较少),但是论文实验精度很高,不应该是这个原因。
  2. 然后觉得是数据的问题,为什么会这么想,因为另一个代码在跑svhn数据集的时候,每个epoch的时间远大于这个代码的epoch时间。然后考察了一下,发现大家常用的全监督训练方式是train num除以batch size得到每个epoch中迭代的次数,这样每个epoch都把整个数据集都训练一遍,但是本代码中,并不是如此,因为存在unlabel example,代码中每个epoch中迭代的次数还是train num除以batch size,所以unlabel example只用到了iterate_num×ul_batch_size(代码中ul_batch_size:unlabel example是一个人为设定的,这里为1:1),这远小于unlabel example,这也是为什么每个epoch跑这么快的原因。这也同样解释了为什么实验中前10几个epoch acc几乎不怎么变的原因——数据集根本还没有训练一遍。两种方法都应该是ok的。
  3. 由于上面一个原因所以可以看出初始epoch
  • 0
    点赞
  • 0
    收藏
    觉得还不错? 一键收藏
  • 0
    评论

“相关推荐”对你有帮助么?

  • 非常没帮助
  • 没帮助
  • 一般
  • 有帮助
  • 非常有帮助
提交
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值