定义: optimizer = torch.optim.Adam(model.parameters(), lr=0.001) # 优化器使用 Adam。第一个参数是待优化的参数,一般为网络的权重 scheduler = torch.optim.lr_scheduler.ReduceLROnPlateau(optimizer, mode='min',factor=0.7, patience=5,min_lr=0.00001) 区别 optimizer.step() 是对模型参数进行更新 scheduler.step() 是对学习率进行更新