机器学习篇——防止过拟合

不同算法中防止过拟合的trick总结
过拟合直观表现是训练集上效果好,在测试集上效果差,即模型泛化能力弱,
即模型偏差小,方差大
防止过拟合即训练时减少训练集部分样本对模型的贡献度,即降低部分样本的权重,可以从两个方面考虑,一是训练时直接忽略某些样本(实现行抽样);二是降低权重w(实现列抽样)
1、正则化
l1正则化,1范数,不可微,故用坐标下降法,部分权重w为0
l2正则化,2范数,可求导,用梯度下降法等,权重w可以很小
soft weight sharing,写完高斯混合模型后补充
2、增加数据量
最直观的方法,增加正确样本所占比例,相应的减少了部分错误样本的权重
3、dropout
训练过程让部分神经元失活,可以理解为模型简化或者集成方法,同样效果的还有bagging和RF,注意在测试集上预测时需要对从训练集上训练得到的w乘以keep_prob(一般是0.5),这是因为训练时只有keep_prob的w参与训练
4、early stopping
验证集损失不再下降时停止
5、其他模型简化
减少神经网络层数
减少决策树深度、剪枝
6、其他
贝叶斯定理等

评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值