Multiple comparison

这篇博客介绍了多重比较的方法,包括Bonferroni校正、Sidak校正、Hochberg校正和FDR校正,特别关注了FDR校正中的BH加权校正法,这些统计方法在数据分析中用于控制假阳性错误。
摘要由CSDN通过智能技术生成

Introduction

      在做多重比较(multiple comparison)时,由于要在同一个数据集上检验多个结论,会导致犯第一类错误的概率大大增加。假设只做一次检验时的显著性水平为0.05,即接受备择假设的允许犯错概率为5%,那么保留原假设的犯错概率就是95%. 如果在同一个数据集上做了n次独立检验,那么n次都不犯第一类错误的概率是(0.95)^n,于是这n次中至少有一次犯了第一类错误的概率是1-(0.95)^n. 当n增大时,显然1-(0.95)^n也会增大,例如当n=10,1-(0.95)^10=0.40(约等于), 即对同一数据集做10次检验假设的犯错概率上升为40%,远远大于实际可以忍受的5%的犯错概率。

Methods

(1)Bonferronni校正

            α'≈α/c;
       在这一修正下,单次检验的显著性水平设定为总体的显著性水平(如0.05)的1/n ࿰
评论 1
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值