原文链接:http:///?p=21825假设检验的基本原理是小概率原理,即我们认为小概率事件在一次试验中实际上不可能发生。 多重比较的问题当同一研究问题下进行多次假设检验时,不再符合小概率原理所说的“一次试验”。如果在该研究问题下只要有检验是阳性的,就对该问题下阳性结论的话,对该问题的检验的犯一类错误的概率就会增大。如果同一问题下进行n次检验,每次的检验水准为α(每次假阳性概率为α),则n次检验至少出现一次假阳性的概率会比α大。假设每次检验独立的条件下该概率可增加至
控制多重比较谬误(Familywise error rate):Bonferroni矫正Bonferroni法得到的矫正P值=P×n 控制错误发现率:Benjamini & Hochberg法简称BH法。首先将各P值从小到大排序,生成顺序数 怎么做检验R内置了一些方法来调整一系列p值,以控制多重比较谬误(Familywise error rate)或控制错误发现率。 Holm、Hochberg、Hommel和Bonferroni方法控制了多重比较谬误(Familywise error rate)。这些方法试图限制错误发现的概率(I型错误,在没有实际效果时错误地拒绝无效假设),因此都是相对较保守的。 方法BH(Benjamini-Hochberg,与R中的FDR相同)和BY(Benjamini & Yekutieli)控制错误发现率,这些方法试图控制错误发现的期望比例。 请注意,这些方法只需要调整p值和要比较的p值的数量。这与Tukey或Dunnett等方法不同,Tukey和Dunnett也需要基础数据的变异性。Tukey和Dunnett被认为是多重比较谬误(Familywise error rate)方法。 要了解这些不同调整的保守程度,请参阅本文下面的两个图。 关于使用哪种p值调整度量没有明确的建议。一般来说,你应该选择一种你的研究领域熟悉的方法。此外,可能有一些逻辑允许你选择如何平衡犯I型错误和犯II型错误的概率。例如,在一项初步研究中,你可能希望保留尽可能多的显著值,来避免在未来的研究中排除潜在的显著因素。另一方面,在危及生命并且治疗费用昂贵的医学研究中,得出一种治疗方法优于另一种治疗方法的结论之前,你应该有很高的把握。 具有25个p值的多重比较示例 ### -------------------------------------------------------------- 按p值排序数据 Data = Data[order(Data$Raw.p),] 检查数据是否按预期的方式排序 执行p值调整并添加到数据框 Data$Bonferroni = 绘制图表 plot(X, Y, 调整后的p值与原始的p值的图为一系列的25个p值。虚线表示一对一的线。 5个p值的多重比较示例 ### -------------------------------------------------------------- 执行p值调整并添加到数据帧 Data$Bonferroni = 绘制(图表) plot(X, Y, 调整后的p值与原始p值在0到0.1之间的一系列5个p值的绘图。请注意,Holm和Hochberg的值与Hommel相同,因此被Hommel隐藏。虚线表示一对一的线。 |
|