如何确定卷积神经网络的卷积核大小、卷积层数、每层map个数

卷积核大小 卷积层数确定的原则是
长而深,不知道怎么就选3*3

三层3*3的卷积效果和一层7*7的卷积效果一致,我们知道一次卷积的复杂度是卷积长宽*图像长宽,3次卷积的复杂度为3*(3*3)*图像长宽《(7*7)*图像长宽,既然效果一样,那当然选多次小卷积啊。


卷积层数设置,选最好性能的那个模型,它是几层那就设置几层。这个是训练数据,激活函数,梯度更新算法等多方面的影响,也不是简单就试出来的。

卷积核数目设置

按照16的倍数倍增,结合了gpu硬件的配置。





  • 3
    点赞
  • 27
    收藏
    觉得还不错? 一键收藏
  • 0
    评论
神经网络(Convolutional Neural Network,CNN)是一种前馈神经网络,主要用于图像和视频识别、分类、处理等方面。卷层是CNN中的心层之一,其作用是对输入数据进行特征提取。卷层内部包含多个卷,组成卷的每个元素都对应一个权重系数和一个偏差量(bias vector),类似于一个前馈神经网络的神经元(neuron)。 卷层的工作原理是将卷与输入数据进行卷运算,得到一个特征映射(feature map)。卷大小通常比输入数据小,因此在卷运算中,卷会在输入数据上滑动,每次滑动一个固定的步长(stride),并对每个位置进行卷运算,得到一个特征值。这些特征值组成了特征映射,用于表示输入数据的不同特征。 卷层的参数包括卷大小、步长、填充方式等。填充方式是指在输入数据的边缘填充一些值,以便在卷运算中保持输入数据的大小不变。卷层的输出大小取决于输入数据的大小、卷大小、步长和填充方式等参数。 下面是一个卷层的示例代码: ```python import torch.nn as nn # 定义一个卷层 conv_layer = nn.Conv2d(in_channels=3, out_channels=16, kernel_size=3, stride=1, padding=1) # 输入数据 input_data = torch.randn(1, 3, 32, 32) # 卷运算 output_data = conv_layer(input_data) # 输出特征映射的大小 print(output_data.size()) # 输出:torch.Size([1, 16, 32, 32]) ```
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值