面试
Chen_Swan
这个作者很懒,什么都没留下…
展开
-
计算机视觉秋招准备(4):神经网络初始化
1. 将全部参数初始化为0不可以考虑全连接的深度神经网络,同一层中的任意神经元都是同构的,它们拥有相同的输入和输出,如果再将参数全部初始化为同样的值,那么无论前向传播和反向传播的取值都是完全相同的。学习过程将永远无法打破这种对称性,最终同一网络层中的各个参数仍是相同的。因此,我们要随机地初始化神经网络参数的值,以打破这种对称性。简单来说,可以初始化参数取值范围为取值范围(-,)的均匀...原创 2020-04-14 11:00:03 · 204 阅读 · 0 评论 -
计算机视觉秋招准备(2):一文看懂dropout
1.Dropout出现的原因在机器学习的模型中,如果模型的参数太多,而训练样本又太少,训练出来的模型很容易产生过拟合的现象。在训练神经网络的时候经常会遇到过拟合的问题,过拟合具体表现在:模型在训练数据上损失函数较小,预测准确率较高;但是在测试数据上损失函数比较大,预测准确率较低。过拟合是很多机器学习的通病。如果模型过拟合,那么得到的模型几乎不能用。为了解决过拟合问题,一般会采用模型集成的...原创 2020-04-13 15:27:50 · 1127 阅读 · 0 评论 -
池化层详细介绍
常见的池化层它实际上是一种形式的降采样。有多种不同形式的非线性池化函数,而其中“最大池化(Max pooling)”是最为常见的。它是将输入的图像划分为若干个矩形区域,对每个子区域输出最大值。直觉上,这种机制能够有效地原因在于,在发现一个特征之后,它的精确位置远不及它和其他特征的相对位置的关系重要。池化层会不断地减小数据的空间大小,因此参数的数量和计算量也会下降,这在一定程度上也控制了过拟合。...原创 2020-04-13 14:17:30 · 94837 阅读 · 1 评论