k-fold cross validation 相关的帖子、论文 建议收藏哦 ~

k-fold cross validation 详细讲解 建议收藏哦 ~

  写在前面:本以为自己用的数据分割方法是k-fold交叉验证,结果仔细地查找了许多资料发现大错特错了,所以本篇就不把所有查到的资料进行梳理总结了,但为了下次使用方便,也为了省去许多“炼丹”朋友费力查询,我把我自己找的一些学习论文和帖子粘在这里,喜欢的或有帮助到您的 点赞收藏哦!

相关帖子

  1. 中文类

推荐1:交叉验证和验证集不是一回事!
这篇帖子说得很有意思,讲得非常透彻,刚开始我还有些怀疑,不过又找了些 外文的帖子和论文,这老哥说得没毛病,而且很透彻,
这 交叉验证 主要就是为那些数据量在 K 量级 甚至更小的 数据集服务的,害!

推荐2: 代码实现 pytorch中数据集的分割,KFold验证
这篇帖子讲解了如何使用 pytorch的Dataset, DataLoader, SubsetRandomSampler + Sklearn的KFolder 进行k-fold交叉验证数据划分及训练。不过我的数据集还是比较大的,这种训练成本有些大,不就不用了 ~
2. 外文类

推荐1:K-Fold Cross Validation – Python Example
大牌人工智能数据分析的专家 blog 非常地详细,有部分代码可供学习!

推荐2:3.1. Cross-validation: evaluating estimator performance
py3 语言 代码详细讲解 其中的图例非常地有助于理解相关概念。

相关论文

推荐的论文主要是一本书中的一个章节,下面是论文的相关信息
Refaeilzadeh, P., et al. (2009). Cross-Validation. Encyclopedia of Database Systems.
L. Liu and M. T. ÖZsu. Boston, MA, Springer US: 532-538.
可以自己动手找一下,该章节说得非常透彻详细和全面,并对几种 交叉验证的 方法优缺点进行比较,
附上几幅图片,具体内容看文献内容。
在这里插入图片描述

)

总结

  k-fold交叉验证主要还是用于小样本学习,考虑到本项目没有用到k-fold交叉验证,索引本篇就提供我老半天搜寻到的重要资料,好了,这就是本节内容,后续会持续更新 MATLAB编程和一些深度学习相关知识,这两个都是大坑啊!不好啃。

  • 0
    点赞
  • 1
    收藏
    觉得还不错? 一键收藏
  • 0
    评论
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值