Pytorch学习笔记(深度之眼)(5)之池化、线性、激活函数层

21 篇文章 2 订阅
17 篇文章 1 订阅

1、池化层——Pooling Layer

在这里插入图片描述在这里插入图片描述

nn.MaxPool2d

nn.MaxPool2d(kernel_size, stride=None,
             padding=0, dilation=1,
             return_indices=False,
             ceil_mode=False)

kernel_size:池化核尺寸;
stride:步长;
padding:填充个数;
dilation:池化核间隔大小;
ceil_mode:池化过程中有一个除法操作,当不能整除时,如果参数设置为True,尺寸向上取整,默认参数值是False,向下取整;
return_indices:记录池化像素索引,记录最大值像素所在的位置索引,通常在最大值反池化中使用;

nn.AvgPool2d

nn.AvgPool2d(kernel_size, 
             stride=None,
             padding=0, 
             ceil_mode=False,
             count_include_pad=True,
             divisor_override=None)

kernel_size:池化核尺寸;
stride:步长;
padding:填充个数;
ceil_mode:尺寸向上取整;
count_include_pad:如果参数值为True,使用填充值用于计算;
divisor_override:求平均值的时候,可以不使用像素值的个数作为分母,而是使用除法因子;

nn.MaxUnpool2d

**功能:**对二维信号(图像)进行最大值池化上采样,将小尺寸图片池化为大尺寸图片;

nn.MaxUnpool2d(kernel_size,
                         stride=None,
                         padding=0)

forward(self, input, indices, output_size=None)

kernel_size:池化核尺寸
stride:步长
padding:填充个数

2、线性层——Linear Layer

在这里插入图片描述

nn.Linear

功能: 对一维信号(向量)进行线性组合;

 nn.Linear(in_features, out_features, bias=True)

主要参数:

in_features:输入结点数;
out_features:输出结点数;
bias:是否需要偏置

计算公式: y = x W T + b i a s y=xW^T+bias y=xWT+bias

3、激活函数层——Activation Layer 在这里插入图片描述

nn.sigmoid

在这里插入图片描述

nn.tanh

在这里插入图片描述

nn.ReLU

在这里插入图片描述在这里插入图片描述

  • 0
    点赞
  • 4
    收藏
    觉得还不错? 一键收藏
  • 0
    评论

“相关推荐”对你有帮助么?

  • 非常没帮助
  • 没帮助
  • 一般
  • 有帮助
  • 非常有帮助
提交
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值