目录
优化器 Adam和SGD的结合体AdaBelief 检测可以
sgd加StepLR有时候效果好
exp_lr_scheduler = optim.lr_scheduler.CosineAnnealingLR(optimizer_ft, T_max=T_max)
exp_lr_scheduler = lr_scheduler.StepLR(optimizer_ft, step_size=2, gamma=0.8)
yolo AdamW比sgd效果更好
yolov5和yolov7都可以用 ,学习率0.001
AdamW末尾有个参数:Amsgrad,是AdamW的改进版。