![](https://img-blog.csdnimg.cn/20201014180756916.png?x-oss-process=image/resize,m_fixed,h_64,w_64)
Torch
文章平均质量分 68
肆十二
那些没有把我击倒的,只会让我更强大。
展开
-
Torch.nn模块学习-激活函数
Pytoch中提供了多种激活函数,也包含在nn模块中,激活函数类和功能,常用的激活函数对应的类和功能如下:层对应的类功能torch.nn.Sigmoid()Sigmoid激活函数.Tanh()Tanh激活函数.Relu()Relu激活函数.Softplus()Softplus激活函数Sigmoid()激活函数:f(x)=11+e−xf(x) = \frac{1}{1+e^{-x}}f(x)=1+e−x1Tanh()激活函数:f(x)=ex−e原创 2021-02-26 19:20:02 · 1286 阅读 · 1 评论 -
Torch.nn模块学习-池化
池化对数据启到了浓缩的效果,通过池化可以减少数据量,降低内存压力。简单地理解,池化操作就是通过池化的kernel选取一定的区域,通过某种计算将这个区域的一系列数值转化为一个数值,需要注意的是,对于池化操作来说,池化的步长一般是卷积核的大小。Pytorch中提供了多种池化的类,最大池化、平均池化、最大自适应池化等操作,下面以二维数据的处理为例,列出常用的池化操作。对应的类功能.MaxPool2d()针对输入信号上应用2d最大值池化.MaxUnPool2d()2d最大值池化的逆原创 2021-02-25 09:53:22 · 1055 阅读 · 0 评论 -
Torch.nn模块学习-卷积
Torch.nn模块学习卷积层卷积操作不是矩阵乘法,是哈达玛乘积,即原始图像的区域和卷积进行按元素相乘然后再求和。Pytorch的nn模块中有针对一维数据、二维数据和三维数据的卷积操作和转置卷积操作,转置卷积操作可以理解为上采样,不过本次学习的目的以学习基础为主,主要学习卷积,常用的卷积操作如下:对应的类功能作用.Conv1d()在输入信号上应用1D卷积.Conv2d()在输入信号上应用2D卷积.Conv3d()在输入信号上应用3D卷积.ConvTrans原创 2021-02-24 18:37:26 · 1323 阅读 · 0 评论