哲学上讲,世界是一个普遍联系的有机整体,现象之间客观上存在这某种有机联系,一种现象的发展变化必然受与之相联系的其他现象发展变化的制约与影响。这种关系可以称为依存关系。
在统计学上,这种依存关系可以分为相关关系和回归函数关系。
相关关系是指现象之间存在非严格、不确定的依存关系。
特点是:一种现象在数量上变化会影响另一种现象数量上的变化,但是这种变化在数量上是不确定的,具有随机性。即给定一种现象一个数值时,另一种现象可能有多个对应的数值,并遵循一定的规律。
注意:相关关系不是因果关系,并不是一种现象的变化导致另一种现象的变化,而是影响变化。可能多种变量共同导致一种变量的变化。
回归函数关系是指现象之间存着依存关系。
特点:可以用函数来表达。一个变量值对应另一个变量值。
相关性分析
定义:是研究两个或两个以上随机变量之间相互依存关系的方向和密切程度的方法。
目的:研究变量之间的相互关系。
分类
分为线性相关和非线性相关。
线性相关程序可以用皮尔逊(Pearson)相关系数r来表示。
r是反应连续变量之间线性相关程度的一个度量指标,-1
统计学意义与显著性
结果的统计学意义是结果真实程度(能够代表总体)的一种估计方法。
统计学意义用p值来表示。
p值为结果可信程度的一个递减指标,p值越大,越不能认为样本中变量的关联是总体中各变量关联的可靠指标。
p值是将观察结果认为有效,即具有总体代表性的犯罪概率。
例p=0.05表示样本变量相关有5%的可能性是有偶然因素造成的,即具有95%的可信度。
在许多研究领域,p=0.05通常被认为可接受错误的边界水平,即具有统计学意义的底界。
结果0.05≥p>0.01被认为是具有统计学意义,而0.01≥p≥0.001被认为具有高度统计学意义。但要注意这种分类仅仅是研究基础上非正规的判断常规。