L2正则化与权重衰减weight decay

medium上翻阅到一篇讲权重衰减的文章,顺便贴一下之前记录的一篇相关笔记。

同时安利一下medium的Towards Data Science主题,每天都会推送机器学习、深度学习、AI、编程相关的文章,质量相当不错。
weight_decay

  • 0
    点赞
  • 2
    收藏
    觉得还不错? 一键收藏
  • 0
    评论
在PyTorch中,复数L2正则化可以通过在模型的损失函数中添加对权重正则化项来实现。L2正则化是一种常见的正则化方法,它通过将权重的平方和添加到损失函数中来惩罚模型的复杂性。 下面是一个示例代码,演示如何在PyTorch中使用复数L2正则化: ```python import torch import torch.nn as nn import torch.optim as optim # 定义模型 class MyModel(nn.Module): def __init__(self): super(MyModel, self).__init__() self.linear = nn.Linear(10, 1) def forward(self, x): return self.linear(x) model = MyModel() # 定义损失函数和优化器 criterion = nn.MSELoss() optimizer = optim.SGD(model.parameters(), lr=0.01) # 定义L2正则化权重衰减系数 weight_decay = 0.001 # 训练循环 for epoch in range(num_epochs): # 前向传播 outputs = model(inputs) loss = criterion(outputs, labels) # 添加L2正则化l2_regularization = torch.tensor(0.) for param in model.parameters(): l2_regularization += torch.norm(param, p=2) # 计算参数的L2范数 loss += weight_decay * l2_regularization # 反向传播和优化 optimizer.zero_grad() loss.backward() optimizer.step() ``` 在上述示例中,我们首先定义了一个简单的模型 `MyModel`,然后定义了损失函数 `nn.MSELoss()` 和优化器 `optim.SGD()`。接下来,我们使用一个循环来执行训练过程。在每个训练步骤中,我们计算模型的输出并计算损失。然后,我们通过遍历模型的参数来计算L2正则化项,并将其添加到损失函数中。最后,我们执行反向传播和优化步骤,更新模型的参数。 通过这种方式,我们可以在PyTorch中使用复数L2正则化来惩罚模型的复杂性,并帮助提高泛化能力。

“相关推荐”对你有帮助么?

  • 非常没帮助
  • 没帮助
  • 一般
  • 有帮助
  • 非常有帮助
提交
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值