提示:文章写完后,目录可以自动生成,如何生成可参考右边的帮助文档
前言
一、相关知识
-
torch.nn.Sequential()函数
-
nn.Conv2d() 函数
-
使用示例
import torch x = torch.randn(3,1,5,4) print(x) conv = torch.nn.Conv2d(1,4,(2,3)) res = conv(x) print(res.shape) # torch.Size([3, 4, 4, 2])
输入:x[ batch_size, channels, height_1, width_1 ]
batch_size,一个batch中样本的个数 3
channels,通道数,也就是当前层的深度 1
height_1, 图片的高 5
width_1, 图片的宽 4卷积操作:Conv2d[ channels, output, height_2, width_2 ]
channels,通道数,和上面保持一致,也就是当前层的深度 1
output ,输出的深度 4【需要4个filter】
height_2,卷积核的高 2
width_2,卷积核的宽 3输出:res[ batch_size,output, height_3, width_3 ]
batch_size,,一个batch中样例的个数,同上 3
output, 输出的深度 4
height_3, 卷积结果的高度 4
width_3,卷积结果的宽度 2 -
通道数
-
-
-
nn.Sigmoid() 函数
-
定义:
- PyTorch 中的一个函数,用于计算输入的 sigmoid 函数值。 sigmoid 函数是一个常用的激活函数,将输入的值映射到了 (0,1) 之间,通常用于神经网络的二分类问题的输出层。
-
-
torch.nn.Flatten()函数
-
定义:
-
是PyTorch中的一个函数,用于将输入张量展平为一维张量。它可以用于将卷积层的输出张量展平为全连接层的输入张量,也可以用于将任意形状的张量展平为一维张量。该函数的参数包括输入张量和展平后的维度大小。
-
-
使用:
-
-
nn.Linear()函数
-
定义
- 是PyTorch中的一个函数,用于进行线性变换。它接受两个参数:输入张量和权重张量,并返回一个输出张量。该函数可以用于实现全连接层、卷积层等神经网络中的线性变换操作。
-
使用
-
总结
-
卷积神经网络(CNN)是一类使用卷积层的网络。
-
在卷积神经网络中,我们组合使用卷积层、非线性激活函数和汇聚层。
-
为了构造高性能的卷积神经网络,我们通常对卷积层进行排列,逐渐降低其表示的空间分辨率,同时增加通道数。
-
在传统的卷积神经网络中,卷积块编码得到的表征在输出之前需由一个或多个全连接层进行处理。
-
LeNet是最早发布的卷积神经网络之一。