1.梯度消失和梯度爆炸
根源是神经网络的天然属性决定的:反向传播,链式求导。
详解机器学习中的梯度消失、爆炸原因及其解决方法_Double_V_的博客-CSDN博客_梯度消失
2.BN的作用
1.bn本质上是为了解决梯度消失和梯度爆炸问题。
2.通过对参数的规范,也可以达到防止过拟合的目的
基础 | batchnorm原理及代码详解_Double_V_的博客-CSDN博客_batchnorm公式
3.如何解决过拟合问题
常用的解决方法:
1.从数据层面,数据集扩增:获取更多的数据、原有数据加随机噪声、重采样
2.特征层面,尽量减少高维硬交叉,通过构造更粗粒度的特征叉乘来增强泛化性。
对出现频率低的id做低频过滤,训练的时候将这部分的特征embedding置位0(或者将样本的ID置为0)推荐系统或者ctr预估中,如何区分或者如何定义高频低频特征?有通用的阈值区分吗? - 知乎
3.正则化,正则化可以限制模型的复杂度,l1 正则和 l2正则,避免参数过大
4.改善网络结构,dropout随机失活,BN批量归一化
5.做交叉验证
6.树模型的话做一些剪枝操作
3.常用的优化器
adam优化器。
动量,学习率自动调整。
使用动量(Momentum)的随机梯度下降
动量累计:
4.din如何解决特征稀疏问题