PyTorch实现L1,L2正则化以及Dropout

本文介绍了PyTorch中如何实现L1、L2正则化以及Dropout。L1正则化产生稀疏模型,L2正则化防止过拟合。Dropout通过随机忽略部分神经元来减少过拟合,训练阶段以一定比例v让隐层节点失效,测试阶段则调整输出以保持一致性。文中还提供了 Dropout 的 numpy 和 PyTorch 实现。
摘要由CSDN通过智能技术生成

PyTorch实现L1,L2正则化以及Dropout
了解知道Dropout原理
用代码实现正则化(L1、L2、Dropout)
Dropout的numpy实现
PyTorch中实现dropout

L1,L2正则化
机器学习中几乎都可以看到损失函数后面会添加一个额外项,常用的额外项一般有两种,一般L1正则化和L2正则化,或者L1范数和L2范数。L1正则化和L2正则化可以看做是损失函数的惩罚项。所谓『惩罚』是指对损失函数中的某些参数做一些限制。一般回归分析中回归w表示特征的系数,从上式可以看到正则化项是对系数做了处理(限制)
在这里插入图片描述
那添加L1和L2正则化有什么用?下面是L1正则化和L2正则化的作用,这些表述可以在很多文章中找到。

L1正则化可以产生稀疏权值矩阵,即产生一个稀疏模型,可以用于特征选择
L2正则化可以防止模型过拟合(overfitting);一定程度上,L1也可以防止过拟合
**
Dropout原理**
常用的防治过拟合的方法是在模型的损失函数中,需要对模型的参数进行“惩罚”,这样的话这些参数就不会太大,而越小的参数说明模型越简单,越简单的模型则越不容易产生过拟合现象。因此在添加权值惩罚项后,应用梯度下降算法迭代优化计算时,如果参数theta比较大,则此时的正则项数值也比较大,那么在下一次更新参数时,参数削减的也比较大。可以使拟合结果看起来更平滑,不至于过拟合。

Dr

PyTorch的Conv2d层默认不包含L2正则化,但可以通过添加权重衰减参数来实现L2正则化。具体方法是在定义优化器时,将weight_decay参数设置为一个非零值,代表权重衰减的强度。例如,以下代码展示了如何使用L2正则化来训练一个简单的卷积神经网络: ``` import torch import torch.nn as nn import torch.optim as optim # 定义卷积神经网络 class Net(nn.Module): def __init__(self): super(Net, self).__init__() self.conv1 = nn.Conv2d(3, 6, 5) self.pool = nn.MaxPool2d(2, 2) self.conv2 = nn.Conv2d(6, 16, 5) self.fc1 = nn.Linear(16 * 5 * 5, 120) self.fc2 = nn.Linear(120, 84) self.fc3 = nn.Linear(84, 10) def forward(self, x): x = self.pool(nn.functional.relu(self.conv1(x))) x = self.pool(nn.functional.relu(self.conv2(x))) x = x.view(-1, 16 * 5 * 5) x = nn.functional.relu(self.fc1(x)) x = nn.functional.relu(self.fc2(x)) x = self.fc3(x) return x # 定义优化器并添加L2正则化 net = Net() optimizer = optim.SGD(net.parameters(), lr=0.001, momentum=0.9, weight_decay=0.001) # 训练网络 for epoch in range(10): running_loss = 0.0 for i, data in enumerate(trainloader, 0): inputs, labels = data optimizer.zero_grad() outputs = net(inputs) loss = nn.CrossEntropyLoss()(outputs, labels) loss.backward() optimizer.step() running_loss += loss.item() if i % 2000 == 1999: print('[%d, %5d] loss: %.3f' % (epoch + 1, i + 1, running_loss / 2000)) running_loss = 0.0 ``` 在定义优化器时,将weight_decay参数设置为0.001,即可实现L2正则化。需要注意的是,权重衰减是一种常用的正则化方法,但并不是唯一的正则化方法。在深度学习中,还有其他正则化方法如L1正则化Dropout等,可以根据具体情况选择合适的方法。
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值