这里写目录标题
关于DL的调参tricks
1.尝试过拟合一个小数据集
这是一个经典的小trick了,但是很多人并不这样做,可以尝试一下。关闭数据增强,使用训练集的一小部分,单个batch单GPU,让神经网络训练几个周期。确保可以实现零损失,如果没有,那么很可能什么地方出错了。
关于bn如何在inference是加速
关于计算量(FLOPs)和参数量(Params)
flops:乘加次数,计算量对应时间复杂度
例如:
f l o p s c o v = h ∗ w ∗ k 2 ∗ c i n ∗ c o u t f l o p s d o w n s a m p l e = 0 f l o p s f c = w e i g h t i n ∗ w e i g h t o u t flops_{cov} = h*w*k^2*c_{in}*c_{out}\newline flops_{downsample} = 0\newline flops_{fc} = weight_{in}*weight_{out} flopscov=h∗w∗k2∗cin∗cout