1. T 检验和 F 检验的由来
一般而言,为了确定从样本 (sample) 统计结果推论至总体时所犯错的概率,我们会利用统计学家所开发的一些统计方法,进行统计检定。
通过把所得到的统计检定值,与统计学家建立了一些随机变量的概率分布 (probability distribution) 进行比较,我们可以知道在多少 % 的机会下会得到目前的结果。倘若经比较后发现,出现这结果的机率很少,亦即是说,是在机会很 少、很罕有的情况下才出现;那我们便可以有信心的说,这不是巧合,是具有统计学上的意义的 (用统计学的话讲,就是能够拒绝虚无假设 null hypothesis,Ho)。相反,若比较后发现,出现的机率很高,并不罕见;那我们便不能很有信心的直指这不是巧合,也许是巧合,也许不是,但我们没 能确定。
F 值和 t 值就是这些统计检定值,与它们相对应的概率分布,就是 F 分布和 t 分布。统计显著性(sig)就是出现目前样本这结果的机率。
2.统计学意义(P 值或 sig 值)
结果的统计学意义,是结果真实程度(能够代表总体)的一种估计方法。专业上,p 值为结果可信程度的一个递减指标,p 值越大,我们越不能认为样本中变量的关联是 总体中各变量关联的可靠指标。p 值是将观察结果认为有效即具有总体代表性的犯错概率。如 p=0.05 提示样本中变量关联有 5% 的可能是由于偶然性造成的。
即假设总体中任意变量间均无关联,我们重复类似实验,会发现约 20 个实验中有一个实验,我们所研究的变量关联将等于或强于我们的实验结果。(这并不是说如 果变量间存在关联,我们可得到 5% 或 95% 次数的相同结果,当总体中的变量存在关联,重复研究和发现关联的可能性与设计的统计学效力有关。)在许多研究领 域,0.05 的 p 值通常被认为是可接受错误的边界水平。
3. T 检验和 F 检验