贝叶斯分析与决策理论:用于确定分类问题决策点的应用

2aaaee0d0dd319804f86f43898cefa0d.png

来源:Deephub Imba
本文约3500字,建议阅读9分钟
本文介绍了贝叶斯分析与决策理论。‍

在分类问题中,一个常见的难题是决定输出为数字时各类别之间的切分点。例如,一个神经网络的输出是介于0到1之间的数字,比如0.7,这是对应于正类(1)还是负类(0)?常识告诉我们使用0.5作为决策标记,但如果低估正类的风险较高怎么办?或者如果类别不平衡呢?

6f0c4aaa0d6ec81bdfca0b9c8f8d7707.jpeg

在这些情况下,正确估计切分点需要复审概率和贝叶斯理论。谈到概率时,有三条规则在后续过程中占据中心地位:

c9dfaae9fadd78adc4ad1cc78b921e22.jpeg

在考虑x和y作为两个事件时,x的概率是x与y的每个选项共同发生的概率之和。

e9212a96229070c79680801da2347814.jpeg

这意味着x和y一起发生的概率等于在x发生的情况下y发生的概率乘以x发生的概率。

6774b8a6d30a0328c8e975ed7c9fa7d6.jpeg

贝叶斯定理是一个非常强大的工具,它提供了一种在获得一些新信息后更新事件概率的方法(在本例中为事件y),这里的新信息用p(x|y)表示。更新后的概率为p(y|x)。

具体来说,p(y)被称为先验概率,即在获得新信息之前的y的概率;p(x|y)是在y存在的条件下发生新事件x的概率,这是关于系统的新数据或信息;而p(x)是事件x的边际概率,不考虑y的值。

贝叶斯定理可以用以下任何形式表达,这些形式都是从原始方程和上述两条规则衍生出来的:

0bcb820a8f9efc596777741221f03878.jpeg

为了说明贝叶斯定理的强大作用,我将用一个例子来展示。假设有一种疾病是事件Y(没有这种疾病是Y0,不幸患病是Y1);进行血液测试检测这种疾病并得到阳性结果是事件X。在整个人群中,患病的概率是一个很小的数字p(y)。关于这个测试,患病的人检测为阳性的概率是p(x|y);而无论是否真的患病,检测为阳性的人群比例是p(x),这包括了真正的阳性和假阳性。

我们来使用一些数字进行说明:

p(y) = 患病的概率,即整个人群中患病的人数:1/10,000 = 0.0001

p(x|y) = 如果有疾病,获得阳性测试的概率(测试本身的有效性):0.9 / 测试在90%的情况下能找到疾病

p(x) = 阳性测试的概率 / 这是接受测试并得到阳性结果的人数,不管他们是否真的生病:1/1000

应用贝叶斯定理后:p(y|x) = (0.9*0.0001)/(0.001) = 9%

这意味着即使测试结果为阳性,实际上患病的机会仍然很低,需要更多的测试来做出诊断。

应用贝叶斯定理后,这个个体患病的概率已经从1/10,000更新到了几乎1/10。

2f1b032102143d9629bb2911a42cbc27.jpeg

在现实中,这些测试,就像神经网络中回归和分类问题的数值结果一样,不是二元的,而是由一个连续变量组成。在这种情况下,问题在于如何“切割”结果并为结果分配正值或负值。常识是使用中点(例如,如果最后一层是softmax,就使用0.5),但这不是唯一的选择,也忽略了诸如不同风险或不平衡训练变量等问题。

在上面使用的例子中,考虑风险非常重要,因为得到假阳性(测试结果为阳性但实际上没有生病)只会带来进一步测试的小风险,但假阴性(实际生病但测试结果为阴性)意味着疾病的进一步传播和未能得到治疗。

接下来的图表显示了分布情况,蓝色代表健康个体的分布,红色代表患病个体的分布。X轴是测试结果(例如血液中的某种蛋白质xxx的值),Y轴是代表数量的值。由于这些是概率分布,它们被规范化,使得它们下面的面积总和为1。

 
 
import numpy as np
 import matplotlib.pyplot as plt
 import scipy
 
 #define mean and standard dev
 mu, sg = 10, 1
 
 #serie of 100000 points
 s = np.random.normal(mu, sigma, 100000)
 
 #plot the histogram and create bins
 count, bins, ignored = plt.hist(s, 500, density=True)
 
 #standard distribution formula
 def standardDistribution(mu,sg,x):
     y = (1/np.sqrt(2*np.pi*sg**2))*np.exp(-((x-mu)**2)/(2*sg**2))
     return y
 
 #prob distribution of negative test and values of test (x)
 
 #for negative test
 mu0, sg0 = 50, 15
 x = np.arange(0.0, 150.0, 0.01)
 probY0_X = standardDistribution(mu0,sg0,x)
 
 #for positive test
 mu1, sg1 = 100, 20
 x = np.arange(0.0, 150.0, 0.01)
 probY1_X = standardDistribution(mu1,sg1,x)
 
 fig, (ax1, ax2) = plt.subplots(1, 2,sharex=True, sharey=True, figsize=(15,5))
 ax1.plot(x, probY0_X, linewidth=2, color='b')
 ax1.plot(x, probY1_X, linewidth=2, color='r')
 ax1.set_title('The joined Y0 and Y1 with X')
 ax2.plot(x, probY1_X+probY0_X, linewidth=2, color='g')
 ax2.set_title('Probability of X')

41e96813ffcece3054c44e0918f8c7aa.jpeg

如果我们对个体是否患病一无所知,将只看到绿色图表,这是测试结果的概率分布。我们可以直觉地看出有两个峰值,这对应于患病或健康情况的中位数。

在此过程中,我将假设两个分布都是正态的或接近正态,这将是大量随机样本的平均值的情况(中心极限定理)。

让我们详细回顾第一个图表,这会看到四个在我们的案例中感兴趣的区域:

85959f18fc149608660256e7ad955938.jpeg

真阳性:TP -> 好!准确识别类别
 真阴性:TN -> 好!准确识别类别
 假阴性:FN -> 坏!结果被归为类别0(在我们的例子中没有疾病),而实际上是类别1
 假阳性:FP -> 坏!结果被归为类别1,而实际上属于类别0

第3和第4区域的面积衡量结果的错误程度,因此,最小化这个错误函数是获得模型最佳结果的一个好方法:

c9259233e575abd749adf30e30e644d5.jpeg

2cc1a5d68c8bdb71320f9d1b0c5aae04.jpeg

最后一个方程仅需要记住这些联合概率是高斯分布的。对于超过两个结果的情况,错误区域被推广为:

a4f947b27cac645b2d241ce9f25f3a36.jpeg

在这一点上,很容易引入偏差到错误中。比如在我们的例子中,对于“坏”结果,我们希望对假阴性进行惩罚。我们引入错误计算因子Rfn和Rfp来考虑它们各自的惩罚。

7723a862f3c642f3655b9a70b9ab3313.jpeg

到这里,我们面临一个优化问题,需要找到错误区域函数的最小值。

5d98ced3eb14be4f5ecd94020d1bf216.jpeg

026c18c3673d4918ba0ceb13e634146c.jpeg

积分的导数是高斯函数。

2a9baa3d226170ca86a9c2074876c514.jpeg

M 是切割点,它根据我们给每种错误类型分配的风险定义,最小化了错误。

下一步是解决这个最后的方程在 Python 中进行操作如下:

 
 
#formula to solve
 
 #for negative test
 mu0, sg0 = 50, 15
 #for positive test
 mu1, sg1 = 100, 20
 
 def func(w):
     r = (rFN/sg1)*(np.exp(-((w-mu1)**2)/(2*sg1**2))) - (rFP/sg0)*(np.exp(-((w-mu0)**2)/(2*sg0**2)))
     return r
 
 #sol no penalty
 rFN, rFP = 1, 1
 sol0 = scipy.optimize.fsolve(func,x0=60)
 
 #sol penalty 5:1
 rFN, rFP = 5, 1
 sol1 = scipy.optimize.fsolve(func,x0=60)
 
 #sol penalty 10:1
 rFN, rFP = 10, 1
 sol2 = scipy.optimize.fsolve(func,x0=60)
 
 #plot with the solutions
 plt.figure(figsize=(12, 10))
 plt.plot(x, probY0_X, linewidth=1, color='b', label='Y0 -> healthy')
 plt.plot(x, probY1_X, linewidth=1, color='r', label='Y1 -> disease')
 plt.axvline(x=sol0, color='black', ls='--', label='Cut, no penalty')
 plt.axvline(x=sol1, color='gray', ls='--', label='Cut, penalty 1:5')
 plt.axvline(x=sol2, color='brown', ls='--', label='Cut, penalty 1:10')
 plt.legend(bbox_to_anchor=(1.0, 1), loc='upper left')
 plt.show()

1545ea60f8bdef05f007b25c8720c726.jpeg

垂直线代表了不同权重或惩罚条件下最佳点M的不同解决方案;这说明了手动引入类别之间差异的影响。

应用贝叶斯定理,这些都是后验函数p(Y|X)上的相同结果:

 
 
#plot of p(Y|x) for Y0 and Y1
 plt.figure(figsize=(12, 10))
 plt.plot(x, probY0_X/(probY1_X + probY0_X), linewidth=1, color='b', label='Y0 -> healthy')
 plt.plot(x, probY1_X/(probY1_X + probY0_X), linewidth=1, color='r', label='Y1 -> disease')
 plt.axvline(x=sol0, color='black', ls='--', label='Cut, no penalty')
 plt.axvline(x=sol1, color='gray', ls='--', label='Cut, penalty 1:5')
 plt.axvline(x=sol2, color='brown', ls='--', label='Cut, penalty 1:10')
 plt.legend(bbox_to_anchor=(1.0, 1), loc='upper left')
 plt.show()

83466b92a1c7b79bac4ef4a484152eb1.jpeg

在现实生活中,对于机器学习,我们可以用三种不同的方式来处理这类优化问题:

  1. 使用 p(y,x),即 y 和 x 同时发生的概率,正如我上面所做的那样(这是两个分布:值为 x 时有病和没病的概率),用于训练集。然后确定最佳切割点。

  2. 使用后验概率 p(Y|X);这是给定测试结果后有病的概率,作为数据。切割点同样作为一个优化问题来确定。

  3. 训练一个直接输出二元结果的分类模型,在训练集中确保标签考虑到不同的风险,或者在类别不平衡的情况下进行重采样。这种方法可能更快,但它有几个缺点,例如,它不能提供关于可能因素的多信息(现实生活中的问题通常是多变量的),去除了手动考虑风险的可能性,也无法拒绝置信度低的结果(接近决策点的结果)。

在机器学习中,解决分类问题和优化决策阈值是一个复杂但至关重要的任务。通过应用贝叶斯定理和考虑不同的优化方法,我们可以更有效地处理这些挑战。在这篇文章中,我们探讨了使用联合概率p(y,x)和后验概率p(Y|X)来确定最佳切割点的两种方法,以及直接训练二元输出分类模型的方法。

每种方法都有其优势和局限性。使用p(y,x)和p(Y|X)可以让我们更精确地根据实际数据和模型的特定需求调整分类阈值,但这需要复杂的统计处理和对概率理论的深入理解。直接训练分类模型则操作简单快速,但可能缺乏灵活性,特别是在处理不平衡数据集和评估风险时。是在需要快速反馈的应用中非常实用。不过,这种快速和便捷可能会以牺牲深入分析和全面理解为代价。

因此,选择最合适的方法应基于具体问题的需求、数据的特性以及预期的应用场景。在实际操作中,可能还需要综合多种方法,以达到最佳的性能和准确度。在决定最佳方法时,考虑到风险和类别不平衡的因素也是至关重要的。这样的多维度考虑,可以帮助研究者和工程师们在现实世界的复杂问题中找到最有效的解决策略。

关于我们

数据派THU作为数据科学类公众号,背靠清华大学大数据研究中心,分享前沿数据科学与大数据技术创新研究动态、持续传播数据科学知识,努力建设数据人才聚集平台、打造中国大数据最强集团军。

60758acfe0a8db8a96590a36787cf5ba.png

新浪微博:@数据派THU

微信视频号:数据派THU

今日头条:数据派THU

评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值