Pytorch(4):过拟合,正则化,CNN,ResNet原理和结构,nn.Module简介和data argumentation

1、过拟合与欠拟合

  • 过拟合:模型过于复杂(高次项参数过多),实际简单。导致模型可以在训练集上表现很好,在测试集上很差

  • 欠拟合,模型过于复杂,实际数据分布复杂,导致模型在训练集和测试集上都表现得很差。

  • deep learning 得layers越来越多,参数量越来越大,model capacity越大。

2、交叉验证:减少过拟合

每经过一次迭代训练,使用验证集的数据做一次validation查看它是否过拟合。
在这里插入图片描述
随这训练集的loss不断下降,测试集的error会升高。

使用random_split在训练集上划分测试集和验证集

train_db,val_db=torch.utils.data.random_split(train_db,[50000,10000])
train_loader=torch.utils.data.DataLoader(train_db,batch_size=batchsiz,shuffle=True)
val_loader=torch.utils.data.DataLoader(val_db,batch_size=batchsiz,shuffle=True)

K-fold cross-validation

  • 将训练集划分为k份
  • 随机选择每一份可以作为验证集
  • 做k次train-validation, 选择acc最好的那一次。

3、Regularization

  • L1-norm

  • L2-norm

  • 使参数得范数变小

  • 使参数刚好可以表达数据的分布,加入正则后,loss函数无法达到global minimum

  • 在每次梯度更新时,会让weight下降得更快

  • 加入正则项后,分割曲面会更smooth

如何做L2-norm

device=torch.device("cuda:0")
net=MLP().to(device)
optimizer=optim.SGD(net.parameters,lr=learning_rate,weight_decay=0,01)
criteon=nn.CrossEntroploss().to(device)

如何做L1-norm

regularization_loss=0
for param in model.parameters():
	regularization_loss+=torch.sum(torch.abs(param))
classify_loss=criteron(logits,target)
loss= classify_loss+0.01*regularization_loss#lambda=0.01
optimizer.zero_grad()
loss.backward()
optimizer.step()

4、动量与学习率衰减

动量

在这里插入图片描述
每一步梯度更新的方向会参考上一个时刻的梯度方向。随着 β \beta β的值升高,更新方向会更偏向之前的梯度方向。

适用于

  • 更新点落在平缓的全面
  • 更新点落在局部最小值

在pytorch中使用

optimizer=torch.optim.SGD(model.parameters(),args.lr,momentum=args.momentum,weight_decays=args.weight_decay)

  • 0
    点赞
  • 15
    收藏
    觉得还不错? 一键收藏
  • 0
    评论
要使用PyTorch实现L1和L2正则化,可以通过在损失函数中添加相应的正则化项来实现。下面是一个简单的示例: ```python import torch import torch.nn as nn import torch.optim as optim # 定义模型 class MyModel(nn.Module): def __init__(self): super(MyModel, self).__init__() self.linear = nn.Linear(10, 1) def forward(self, x): return self.linear(x) model = MyModel() # 定义损失函数和优化器 criterion = nn.MSELoss() optimizer = optim.SGD(model.parameters(), lr=0.01) # 定义正则化权重 l1_lambda = 0.01 l2_lambda = 0.01 # 训练循环 for epoch in range(num_epochs): for inputs, targets in data_loader: optimizer.zero_grad() outputs = model(inputs) loss = criterion(outputs, targets) # 添加L1正则化 l1_reg = torch.tensor(0.) for param in model.parameters(): l1_reg += torch.norm(param, 1) loss += l1_lambda * l1_reg # 添加L2正则化 l2_reg = torch.tensor(0.) for param in model.parameters(): l2_reg += torch.norm(param, 2) loss += l2_lambda * l2_reg loss.backward() optimizer.step() ``` 在上述代码中,我们定义了一个`MyModel`类来表示我们的模型。然后,我们使用`nn.MSELoss()`作为损失函数,并使用`optim.SGD`作为优化器。在训练循环中,我们通过遍历模型的参数并计算其L1和L2范数来计算正则化项。然后将正则化项加到损失函数中,通过调整`l1_lambda`和`l2_lambda`参数来控制正则化的强度。最后,我们进行反向传播和参数更新以完成训练。 请注意,这只是一个简单的示例,实际应用中可能还会有其他细节需要考虑,如权重衰减(weight decay)等。

“相关推荐”对你有帮助么?

  • 非常没帮助
  • 没帮助
  • 一般
  • 有帮助
  • 非常有帮助
提交
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值