- 博客(2)
- 收藏
- 关注
转载 CNN 自写代码调参经验
对非线性函数的一个最成功的改进就是纠正线性单元(Rectified Linear Units,ReLU),其作用是如果卷积计算的值小于0,则让其等于0,否则即保持原来的值不变。这种做法所谓是简单粗暴,但ReLU使网络的激活具有了稀疏的特性,实验说明一切。起因从去年开始接触神经网络,觉得CNN结构很简单没什么难的,直到有一天被一位拿过信息竞赛金牌的学弟鄙视了……中期答
2017-02-28 15:30:51 1574
转载 卷积神经网络池化层和卷积层作用
链接:https://www.zhihu.com/question/36686900/answer/130890492个人觉得主要是两个作用:1. invariance(不变性),这种不变性包括translation(平移),rotation(旋转),scale(尺度)2. 保留主要的特征同时减少参数(降维,效果类似PCA)和计算量,防止过拟合,提高模型泛化能力(1
2017-02-28 11:08:12 31554
空空如也
空空如也
TA创建的收藏夹 TA关注的收藏夹
TA关注的人