optimizer(代码分析)

torch.optim是里面是和优化算法相关的类。比如使用SGD算法用

optimizer = optim.SGD(net.parameters(),lr=1e-3)

这个地方要注意的是传入的第一个参数是网络的parameters。

这个类里面有param_group,是一个字典,里面包括:

params: 网路可学习权重

lr: 学习率

weight_decay:权重衰减

等等私有成员。

这个里面的weight_decay有两个地方需要注意一下,一个是这里面的权重衰减是默认是L2正则化,另外一点是,这个正则化是对于weight和bias都进行正则化,按照《深度学习》里面讲的是,最好仅对于weight进行正则化,对对于bias进行正则化极有可能会造成欠拟合。

转载于:https://www.cnblogs.com/yanxingang/p/10466343.html

  • 0
    点赞
  • 0
    收藏
    觉得还不错? 一键收藏
  • 0
    评论
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值