Predictive Data Mining Models
Knowledge Management
1.收集恰当的数据(处理噪声)
2.存储数据、管理数据
3.数据挖掘:生成报告确保可操作性,为了其他特殊研究提供数据
Basic Forcasting Tools
regression models
回归可以用在各种数据类型。如果是时间序列类型的数据回归的输出常用来预测。回归可以对其他类型的数据构造预测模型。
在回归的角度上,可能数据挖掘算法中用的最多的是数据拟合。毕竟它是统计分析学用来分析因变量和自变量之间特征关系的基础工具之一。回归用处很多,在解释和预测上。而线性和逻辑回归模型是首选的用于数据挖掘的两个工具。当然,也存在一些特殊形式的非线性回归。
普通最小二乘法OLS模型:
Y
=
β
0
+
β
1
X
1
+
β
2
X
2
+
.
.
.
+
β
n
X
n
+
ε
Y=\beta_0+\beta_1X_1+\beta_2X_2+...+\beta_nX_n+\varepsilon
Y=β0+β1X1+β2X2+...+βnXn+ε
其中,Y是因变量(需要预测的变量)
X
n
X_n
Xn是第n个自变量
β
0
\beta_0
β0是截距项
β
n
\beta_n
βn是第n个自变量 的系数
ε
\varepsilon
ε是误差项
OLS回归是所有观测变量的基础上最小化最小化平方误差项
ε
\varepsilon
ε后的一条直线。根据过往数据去决定自变量的
β
\beta
β系数。这种模型假设都是线性关系并且误差项都是分布在0周围。这种假设虽然不现实,但是由于统计理论的发展以及线程的数据包的支持,OLS仍然很受欢迎。
Time Serie Error Metrics
上面的回归基于误差项服从高斯分布这一假设,并不怎么好使。回归的准确性用残差表示。残差又衍生出了回归训练测量方法R-squared。
SSE:拟合数据和原始数据对应点的误差的平方和。预测的准确性可以通过误差平方和
S
S
E
=
∑
i
=
1
n
w
i
(
y
i
−
y
^
i
)
2
SSE=\sum_{i=1}^nw_i(y_i-\hat y_i)^2
SSE=∑i=1nwi(yi−y^i)2表示。
SSE越接近于0,说明模型选择和拟合更好,数据预测也越成功.
SST:Totalsum of squares,即原始数据和均值之差的平方和。
S
S
T
=
∑
i
=
1
n
w
i
(
y
i
−
y
ˉ
i
)
2
SST=\sum_{i=1}^nw_i(y_i-\bar y_i)^2
SST=∑i=1nwi(yi−yˉi)2
R 2 R^2 R2确定系数。 R 2 = S S T − S S E S S T R^2=\frac{SST-SSE}{SST} R2=SSTSST−SSE。取值范围[0,1]。0表示模型无论用,1表示模型棒极了。
除了 R 2 R^2 R2,你还可以用MSE,MAD等方法。MAD比MSE的鲁棒性更好,对大的错误的抗性比 R 2 R^2 R2要强。