kl散度度量分布_数据挖掘比赛技巧——确定数据同分布

在数据挖掘比赛中,很重要的一个技巧就是要确定训练集与测试集特征是否同分布,这也是机器学习的一个很重要的假设[1]。但很多时候我们知道这个道理,却很难有方法来保证数据同分布,这篇文章就分享一下我所了解的同分布检验方法。

封面:电影《红猪(红の豚)》


1. KS检验

KS是一种非参数检验方法,可以在不知道数据具体分布的情况下检验两个数据分布是否一致。当然这样方便的代价就是当检验的数据分布符合特定的分布事,KS检验的灵敏度没有相应的检验来的高。在样本量比较小的时候,KS检验作为非参数检验在分析两组数据之间是否不同时相当常用。[2]

具体操作方法如下:

  1. 画出数据的累积分段图。举个例子,对于数据集 {1.26, 0.34, 0.70, 1.75, 50.57, 1.55, 0.08, 0.42, 0.50, 3.20, 0.15, 0.49, 0.95, 0.24, 1.37, 0.17, 6.98, 0.10, 0.94, 0.38},先对其排序为 {0.08, 0.10, 0.15, 0.17, 0.24, 0.34, 0.38, 0.42, 0.49, 0.50, 0.70, 0.94, 0.95, 1.26, 1.37, 1.55, 1.75, 3.20, 6.98, 50.57}。其中比0.24小的一共有4个,占数据集的 1/5,所以0.24的累积分布值是0.2,依次类推我们可以画出累积分布图。

  • 0
    点赞
  • 0
    收藏
    觉得还不错? 一键收藏
  • 0
    评论
KL散度(Kullback-Leibler divergence),又被称为相对熵,是一种用来衡量两个概率分布之间差异的度量方式。KL散度越小,表示两个分布越接近,反之越大则表示两个分布差异较大。 KL散度可以用于拟合负数分布。在统计建模中,往往需要根据已有的数据来拟合出一个概率分布模型,以用来描述数据的特征。当遇到负数数据时,传统的概率分布模型(如正态分布)是无法直接适应的,此时可以考虑使用KL散度进行拟合。 拟合负数分布的一种常用方法是使用混合分布模型。混合分布模型是由多个基础分布组合而成,每个基础分布对应不同的数据集。通过调整各个基础分布的权重和参数,可以使得混合分布模型更好地拟合负数分布情况。 在使用KL散度进行拟合时,我们的目标是让混合分布模型的KL散度和负数分布之间的差异尽可能小。可以通过优化算法(如梯度下降法)来寻找最优的模型参数,使得KL散度最小化。 需要注意的是,拟合负数分布的过程并不是一件简单的事情,需要根据具体情况设计合适的模型以及相应的拟合算法。此外,KL散度只是衡量两个分布之间的差异,并不能保证获得的模型是最佳的,因此在实际应用中还需要根据实际问题进行调整和改进。 总之,KL散度可以用于拟合负数分布,通过优化混合分布模型的参数来最小化KL散度与负数分布之间的差异。

“相关推荐”对你有帮助么?

  • 非常没帮助
  • 没帮助
  • 一般
  • 有帮助
  • 非常有帮助
提交
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值