![](https://img-blog.csdnimg.cn/20201014180756930.png?x-oss-process=image/resize,m_fixed,h_64,w_64)
深度学习常识
文章平均质量分 68
江南綿雨
文字是思维的缓存
展开
-
模型剪枝的讲解
模型剪枝的讲解原创 2022-03-27 00:11:52 · 3096 阅读 · 0 评论 -
池化层的反向传播是怎么实现的
引言传统的神经网络无论是隐层还是激活函数的导数都是可导,可以直接计算出导数函数,然而在CNN网络中存在一些不可导的特殊环节,比如Relu等不可导的激活函数、造成维数变化的池化采样、已经参数共享的卷积环节。NN网络的反向传播本质就是梯度(可能学术中会用残差这个词,本文的梯度可以认为就是残差)传递,所以只要我们搞懂了这些特殊环节的导数计算,那么我们也就理解CNN的反向传播。Pooling池化操作的反向梯度传播CNN网络中一个不可导的环节就是Pooling池化操作,因为Pooling操作使得feature原创 2022-03-27 19:33:06 · 827 阅读 · 0 评论