smooth L1为什么有效
优点:更强的鲁棒性
2.
学习率(步长):在梯度下降的过程中更新权重时的超参数(每次参数更新的幅度)
weight decay(权值衰减)的使用其最终目的是防止过拟合。L2正则化就是在代价函数后面再加上一个正则化项
避免过拟合的方法有很多:early stopping、数据集扩增(Data augmentation)、正则化(Regularization)包括L1、L2(L2 regularization也叫weight decay),dropout。
Monentum
训练参数时,有时候会下降的非常慢,并且可能会陷入到局部最小值中
动量的引入就是为了加快学习过程,特别是对于高曲率、小但一致的梯度,或者噪声比较大的梯度能够很好的加快学习过程
简而言之 若当前的梯度方向与累积的历史梯度方向一致,则当前的梯度会被加强,从而这一步下降的幅度更大。若当前的梯度方向与累积的梯度方向不一致,则会减弱当前下降的梯度幅度。
3.
faster rcnn损失是什么
RPN(位置损失,二分类损失(有无目标))+Fast rcnn (位置损失,类别损失)
4.softmax 的好处
将各类别的概率转化成0-1之间
5.
准确率:预测为正样本占总正样本的比例
召回率:预测正样本(真正正样本)占所有预测正样本的比例
面经day1
最新推荐文章于 2024-07-06 18:08:02 发布