CNN基础知识
这个卷积层将卷积核的高和宽都设置为1,这样在卷积的时候不用考虑元素周围的东西,输入数据和输出数据的高宽是相等的,只是通道的维度改变。卷积层我们学习的结果就是kernel和bias,而池化层就不用学习kernel因为它已经给kernel定义好了,分别为sum,avg,max。2,输出的维度小于输入的维度。而通常我们都需要做许多层的卷积,总不能把数据越搞越小,所以要将数据进行填充,通常填充0。所以通常情况下会取卷积核的size为奇数,使得填充为偶数,这样上下填充的就比较对称了。k为卷积核,h为高,w为宽。
原创
2022-09-12 00:24:29 ·
791 阅读 ·
2 评论