Pytorch 学习

Batch normalization

在这里插入图片描述
提出的原因:sigmoid函数,当输入过大或过小的数据时容易差生梯度弥散的情况,即倒数为0
在这里插入图片描述
同时w1 w2对loss的影响不同
概念:权值缩放

一个例子

在这里插入图片描述
第一步是使得数据趋于0 ~ 1分布 , 第二步是根据需要使得数据趋于 β γ ˜ \beta \~\gamma βγ˜分布,是需要梯度信息来更新学习的
基本流程
在这里插入图片描述
1*1的convolution操作意义 可以改变输出的维度
在这里插入图片描述

ResNet 深度残差网络

在这里插入图片描述
上图是网络参数量的分析,其中原图像是256维(通道),宽高是224224。
1
1,64 代表的是卷积核大小为11,卷积核个数为64。输出为[64,224,224] 参数量:11* 256* 64
33,64代表的是卷积核大小为33,卷积核个数为64。输出为[64,224,224],这里经过了padding 参数量:3364* 64
1
1,256 代表的是卷积核大小为11,卷积核个数为256。输出为[256,224,224] 为了element相加,所以保持维度和大小的相同。 参数量:11 64256

残差的由来
在这里插入图片描述

nn.Moudle类

在这里插入图片描述
参数管理
在这里插入图片描述
在这里插入图片描述
在这里插入图片描述

在这里插入图片描述

  • 0
    点赞
  • 0
    收藏
    觉得还不错? 一键收藏
  • 0
    评论
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值