1.参考:https://blog.csdn.net/zs15321583801/article/details/79677035
cross_val_score(model_name, X,y, cv=k)
作用:验证某个模型在某个训练集上的稳定性,输出k个预测精度。
K折交叉验证(k-fold)
把初始训练样本分成k份,其中(k-1)份被用作训练集,剩下一份被用作评估集,这样一共可以对分类器做k次训练,并且得到k个训练结果。
output:每次验证的分数。
(1)scoring参数
参考:https://blog.csdn.net/qq_32590631/article/details/82831613
1)分类问题:
常用的是 ‘precision’ 和 ’recall‘ 和 ’f1;
假设这是一个二元分类的问题
准确率(precision)也就是被分类器检测到的数据中 分类正确的部分
召回率(recall)就是 正类中被分类正确的部分
而F1值就是 准确率和召回率的调和平均数
在实际应用中,如果是做搜索类的问题,那就是在保证召回率的情况下提升准确率
在做垃圾邮件检测之类的问题,就是要保证准确率的情况下提升召回率
具体也就是遇到具体问题看两者的权衡
如果两者都要求高,那就需要保证较高的F1 score
2)回归问题
比较常用的是 'neg_mean_squared_error‘ 也就是 均方差回归损失
该统计参数是预测数据和原始数据对应点误差的平方和的均值
2.参考:https://blog.csdn.net/qq_39422642/article/details/78566763
模型融合