【冰糖杂谈】关于Repeated k-Fold Cross-Validation 重复k折交叉验证的讨论

本文探讨了在机器学习中,如何通过Repeated k-Fold Cross-Validation更准确地评估模型性能。介绍了三种计算平均结果的方法:1) r次准确率的平均值;2) 先k次平均再r次平均;3) r*k次准确率的平均值,并引用了多篇文献支持。不同的计算方法在实践中都有应用,选择哪种取决于个人偏好和应用场景。
摘要由CSDN通过智能技术生成

k-Fold Cross-Validation,k折交叉验证,被广泛应用于机器学习领域,通常有两个作用:(1)用于模型及超参数的选择;(2)评估模型泛化误差

单次k-Fold Cross-Validation会导致对模型性能的不准确评估,比如在不同随机种子下的不同划分会产生不同的结果;Repeated k-Fold Cross-Validation通过重复多次k-Fold Cross-Validation过程,给出平均结果作为最终评估结果,提供对数据集上模型的真实未知潜在平均性能的更准确估计。这是使用Repeated k-Fold Cross-Validation的原因。

所以,这个平均结果具体是怎么获得的呢?

假设一个r次重复k-Fold Cross-Validation实验,以分类准确率Accuracy为评估指标,有三种获得平均结果的方式:

(1)对于一次k-Fold Cross-Validation,获得原始数据上的准确率,再取r个准确率的平均值。在《数据挖掘:概念与技术》[1] 中对单次k-Fold Cross-Validation的准确率估计给出了这样的描述 “对于分类,准确率估计是k次迭代正确分类的元组总数除以初始数据中的元组总数”(P241),因此,在此观点基础上的Repeated k-Fold Cross-Validation为r个准确率的平均值;文献 [2-4] 使用了这种方式对Cross-Validation进行了讨论;

(2)对于一次k-Fold Cross-Valida

评论 2
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包

打赏作者

冰糖不在家

你的鼓励将是我创作的最大动力

¥1 ¥2 ¥4 ¥6 ¥10 ¥20
扫码支付:¥1
获取中
扫码支付

您的余额不足,请更换扫码支付或充值

打赏作者

实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值