Pytorch学习笔记4

Pytorch学习笔记4

过拟合与欠拟合

在这里插入图片描述
在这里插入图片描述

交叉验证减少overfitting

在这里插入图片描述
在这里插入图片描述
在这里插入图片描述
把训练集划分为K份,每次取1/k 作为验证集

减轻overfitting

在这里插入图片描述
在这里插入图片描述
在这里插入图片描述
正则化方法:在损失函数中加入一范数,使得参数尽量小,减少模型复杂度,使得曲线更加平滑,使得高维特征参数比较小,使其在保持性能时退化成更低复杂的网络,避免overfitting
Regularization也被称为weight-decay
在这里插入图片描述
在这里插入图片描述
在这里插入图片描述
Pytorch使用:
optimizer=optim.SGD(net.parameters(),lr=learning_rate,weight_dacay=0.01)
在这里插入图片描述
在这里插入图片描述

SGDM的pytorch实现

在这里插入图片描述
在这里插入图片描述

optimizer=torch.optim.SGD(model.parameters(),args.lr,momentum=args.momentum,weight_decay		 
	=args.weight_decay

在这里插入图片描述
在这里插入图片描述
在这里插入图片描述

optimizer=torch.optim.SGD(model.parameters(),args.lr,momentum=args.momentum,weight_decay		 
	=args.weight_decay
scheduler=ReduceLROnPlateau(optimizer,'min')
for epoch in x range(args.start_epoch,args.epochs):
	train(train_loader,model,criterion,optimizer,epoch)
	result_avg,loss_val)=validate(val_loader,model,criterion,epoch)
	scheduler.step(loss_val)

在这里插入图片描述
在这里插入图片描述

Early stopping 的pytorch实现

在这里插入图片描述
在这里插入图片描述

Dropout

在这里插入图片描述
在这里插入图片描述

net_dropped=torch.nn.Sequential(
	torch.nn.LInear(784,200),
	torch.nn.Dropout(0.5)
	torch.nn.ReLU(),
)

在这里插入图片描述
在这里插入图片描述

test时,所有连接都会使用,所以validation时需要加入

net_dropped.eval()

Stochastic Gradient Descent

在这里插入图片描述
与之不同,SGD只取一个batch的梯度。也就是说SGD把以前在所有数据集上的梯度改成了在一个batch上的梯度。
在这里插入图片描述
在这里插入图片描述
原因:速度更快
在这里插入图片描述
在这里插入图片描述
在这里插入图片描述
如果用线性层处理图片,数据过多。

Receptive Field and Weight sharing

在这里插入图片描述
在这里插入图片描述
在这里插入图片描述
在这里插入图片描述
一个卷积核代表一个观察角度(边缘信息,模糊信息,脸部信息)
在这里插入图片描述
在这里插入图片描述
输入通道与卷积核的通道一一对应,比如输入3通道图像,就要用3通道卷积核进行处理,一个通道处理一个通道的图像,但是3通道卷积核也是一个卷积核,最后得到的数值是三个通道数值的累加。
也就是说,三通道图片用三通道单卷积核处理,得到单通道图像。
如果有多卷积核的话,有多少卷积核得到多少通道的图像

在这里插入图片描述
在这里插入图片描述
在这里插入图片描述
在这里插入图片描述
在这里插入图片描述
在这里插入图片描述

池化层

在这里插入图片描述
在这里插入图片描述
在这里插入图片描述
out=F.interpolate(x,scale_factor=2,mode=‘nearest’)
在这里插入图片描述
在这里插入图片描述
在这里插入图片描述

Batch nomalization

在这里插入图片描述
在这里插入图片描述

Feature scaling

在这里插入图片描述
在这里插入图片描述
在这里插入图片描述

BatchNorm1d

在这里插入图片描述
在这里插入图片描述
β,γ根据梯度信息自动更新
在这里插入图片描述
在这里插入图片描述
在这里插入图片描述

在这里插入图片描述

  • 0
    点赞
  • 1
    收藏
    觉得还不错? 一键收藏
  • 0
    评论

“相关推荐”对你有帮助么?

  • 非常没帮助
  • 没帮助
  • 一般
  • 有帮助
  • 非常有帮助
提交
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值