![](https://img-blog.csdnimg.cn/20201014180756724.png?x-oss-process=image/resize,m_fixed,h_64,w_64)
卷积网络
文章平均质量分 63
CUHK-SZ-relu
一只小程序员
展开
-
卷积核个数和输入输出通道数的关系
思考的开始为什么突然想起来这个了?卷积大家都太熟系,感觉不用多说了都,我也是这么觉得的。但是,今天发现一个问题,就是卷积操作完成从c1通道到c2通道的过程中,到底是需要多少卷积核?又是到底怎么卷的?问题解决回答下面的问题就可以顺利解决。1.为什么卷积的效率高?因为卷积的卷积核是可以进行复用的,所以就不需要训练很多参数,训练的参数少,可以加速拟合。所以,训练效率很高。可以节省很多计算量2.输入的每个通道是否要每个指定一个卷积核?既然是复用可以节省计算量,我们是否可以对所有的输入通道都复用一种卷积原创 2021-07-15 21:00:50 · 5186 阅读 · 2 评论 -
梯度消失的问题
梯度消失的问题什么是梯度消失有人在CIFAR10这个数据集上面做了一个实验,是不是卷积层越多越好,结果发现并不是如此。在层数增加之后表现并没有有效的变好。这其实就是触发了梯度消失的问题。因为每一层计算的梯度最终都会乘算到一起,这个数值在最后的时候就会越来越小,乘的层数多了,自然而然就会变得越来越小。底层的网络的梯度会变得特别小,很难得到有效的训练,所以整体的准确度不高。这个问题如何解决我们可以使用如下的情况来进行解决,将一个没有经过层处理的x直接传下去。这样到底能达到一个怎样的结果呢?其实得原创 2021-04-07 11:56:07 · 1114 阅读 · 0 评论 -
卷积神经网络补充—GoogleNet
复杂神经网络的问题简单神经网络我们注意这样的一个问题,我们在之前的学习当中使用的都是简单的一条龙走下来的方式进行学习,这种是比较基础的,没有分叉,没有循环,就是一条路走完。可以看到之前学的都是特别简单的串行结构。GoogleNet是一种基础架构,我们一般拿这个网络做一个主干网络,之后再在主干网络上进行修改之后作为我们实际应用的场景。减少代码冗余:Inception Module减少代码冗余看起来比较陌生其实我们可能已经默默应用了很久了,例如:在面向过程的编程语言当中使用函数,在面向过程的编程原创 2021-04-04 09:27:46 · 269 阅读 · 0 评论