一阶段实验总结

实验对比了Vgg16和Resnet20在Cifar数据集上的表现,发现Adam优化器快速收敛,而SGD更利于精细调整。自定义SGD调度器优于Cos调度器。精度提升主要来自修复bug和应用特定技巧,如cutout和预训练。调整batch_size和学习率也影响精度,但关键在于找到合适的baseline并解决代码问题,而非过度依赖调参。
摘要由CSDN通过智能技术生成

 实验结果:

Vgg16

cifar100

无验证集:

best_acc= 74.570%

Epoch=128,best_acc= 73.240%, test_acc= 72.090%

resnet20

cifar10

Epoch=192,best_acc= 91.770%, test_acc= 91.450%

resnet20

cifar100

无验证集:Epoch=162,best_acc= 69.660%

Epoch=89,best_acc= 66.590%, test_acc= 66.260%

经验:

1、Adam收敛快,SGD精细,用torch.optim写SGD就可。

2、scheduler,Cos的收敛没有自定义SGD按照epoch逐渐减小的好

3、实验过程中很多都是错的。所有精度的增长都不是靠调参调出来的,而是一定发现了bug或者增加了一段trick的代码。一定是代码有问题!不要妄想通过调参达到不该有的高度!有的时候在参数差不多的情况下,先看整体趋势,收敛的情况,而不是一直微调参数,首先整体上要先达到一个准确率左右(即baseline)再调。如果baseline都没找到,那肯定是代码的问题,trick的问题而不是参数的问题,参数对于整体的acc提升并没有那么那么大。

4、一些trick:cifar10的policy,cutout优化。pretrain,是vgg16cifar100的质变,成功上70

5、batch_size设小了精度有提升,但不算很高,都是微调。但需要的时间边长了。

6、基本上,一开始的lr设置为0.1,0.1*0.1*0.1*0.5(*0.1)最后lr到0.0001~0.00001

评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值