功能:优化更新深度学习模型的参数
介绍:实现了深度学习中绝大多数的优化方法,例如RMSProp,Adam,SGD等,更便于应用,所以通常不需要手动写上述代码。
示例代码:
import torch.optim as optim
#新建一个优化器,指定需要调整的参数和学习率
optimizer = optim.SGD(net.parameters(), lr=0.01)
#在训练过程中,先梯度清零(与net.zero_grad()效果一样)
optimizer
功能:优化更新深度学习模型的参数
介绍:实现了深度学习中绝大多数的优化方法,例如RMSProp,Adam,SGD等,更便于应用,所以通常不需要手动写上述代码。
示例代码:
import torch.optim as optim
#新建一个优化器,指定需要调整的参数和学习率
optimizer = optim.SGD(net.parameters(), lr=0.01)
#在训练过程中,先梯度清零(与net.zero_grad()效果一样)
optimizer