本文档主要记录本人在cnn学习过程中对一些概念的理解,想法,经验等。
泛化能力:
概括地说,泛化能力(generalization ability)是指机器学习算法对新鲜样本的适应能力。学习的目的是学到隐含在数据对背后的规律,对具有同一规律的学习集以外的数据,经过训练的网络也能给出合适的输出,该能力称为泛化能力。
Batch Normalization:
即BN算法,用以加快神经网络的训练速度,并且能够有效改善梯度消失和梯度爆炸等问题。
具体操作可以简单理解为:在网络的每一层输入的时候,又插入了一个归一化层,也就是先做一个归一化处理,然后再进入网络的下一层。不过这个归一化层,可不像我们想象的那么简单,它是一个可学习、有参数的网络层。归一化的目标是:均值0、方差为1。
详细介绍请看:https://blog.csdn.net/hjimce/article/details/50866313
感受野:
在卷积神经网络中,感受野的定义是 卷积神经网络每一层输出的特征图(feature map)上的像素点在原始图像上映射的区域大小。
详细介绍:https://www.cnblogs.com/objectDetect/p/5947169.html
cnn学习笔记
最新推荐文章于 2018-12-03 11:41:23 发布