时间序列预测基础教程系列(7)_如何用自回归模型(AR)预测时间序列预测(Python)

用Python进行时间序列预测的自回归模型

自回归是一个时间序列模型,它使用以前时间步的观察值作为回归方程的输入,以预测下一个时间步的值。

这是一个非常简单的想法,可以对一系列时间序列问题进行准确的预测。

在本教程中,您将了解如何使用Python实现时间序列预测的自回归模型。

完成本教程后,您将了解:

  • 如何探索自相关的时间序列数据。
  • 如何开发自相关模型并用它来进行预测。
  • 如何使用开发的自相关模型进行滚动预测。

让我们开始吧。

自回归

回归模型(例如线性回归)基于输入值的线性组合对输出值进行建模。

例如:

yhat = b0 + b1*X1

在哪里是预测,b0和b1是通过在训练数据上优化模型而找到的系数,并且X是输入值。 

该技术可用于时间序列,其中输入变量被视为前一时间步的观察值,称为滞后变量。

例如,我们可以根据最后两个时间步(t-1和t-2)的观察结果预测下一个时间步(t + 1)的值。作为回归模型,这看起来如下:

X(t+1) = b0 + b1*X(t-1) + b2*X(t-2)

因为回归模型在之前的时间步骤使用来自相同输入变量的数据,所以它被称为自回归(self of regression)。 

自相关

自回归模型假设先前时间步骤的观察对于预测下一时间步的值是有用的。

变量之间的这种关系称为相关性。

如果两个变量在同一方向上变化(例如,一起向上或向下),则称为正相关。如果变量随着值的变化而向相反的方向移动(例如,一个上升,一个下降),则称为负相关。

我们可以使用统计测量来计算输出变量与先前时间步长处的各种不同滞后值之间的相关性。输出变量与特定滞后变量之间的相关性越强,自动回归模型在建模时可以对该变量赋予的权重越大。

同样,因为在先前时间步骤中在变量和它自身之间计算相关性,所以它被称为自相关。由于时间序列数据的顺序结构,它也被称为串行相关。

相关统计还可以帮助选择哪些滞后变量在模型中有用,哪些不可用。

有趣的是,如果所有滞后变量与输出变量显示低或无相关性,则表明时间序列问题可能无法预测。在开始使用新数据集时,这非常有用。

在本教程中,我们将研究单变量时间序列的自相关,然后开发自回归模型并使用它来进行预测。

在我们这样做之前,让我们首先回顾一下将在示例中使用的每日最低温度数据。

最低每日温度数据集

该数据集描述了澳大利亚墨尔本市10年(1981-1990)的最低日常温度。

单位为摄氏度,有3,650个观测值。数据来源被称为澳大利亚气象局。

在此处了解有关数据集的更多信息

下载数据集与文件名“当前的工作目录日用最低temperatures.csv “。

注意:下载的文件包含一些问号(“?”)字符,在使用数据集之前必须删除这些字符。在文本编辑器中打开文件并删除“?”字符。同时删除文件中的任何页脚信息。

下面的代码将数据集作为Pandas系列加载。

from pandas import Series
from matplotlib import pyplot
series = Series.from_csv('daily-minimum-temperatures.csv', header=0)
print(series.head())
series.plot()
pyplot.show()

运行该示例将从加载的数据集中打印前5行。 

Date
1981-01-01 20.7
1981-01-02 17.9
1981-01-03 18.8
1981-01-04 14.6
1981-01-05 15.8
Name: Temp, dtype: float64

然后创建数据集的线图。 

最低每日温度数据集图

                                                最低每日温度数据集图

快速检查自相关

我们可以快速,直观地检查我们的时间序列数据集中是否存在自相关。

我们可以在前一时间步骤(t-1)绘制观察结果,并在下一时间步骤(t + 1)观察作为散点图。

这可以通过首先创建时间序列数据集的滞后版本并使用Pandas库中的内置散点图函数来手动完成。

但有一种更简单的方法。

Pandas提供了一个内置的绘图来完成这个,称为  lag_plot()  函数。

下面是创建最低每日温度数据集的滞后图的示例。

from pandas import Series
from matplotlib import pyplot
from pandas.tools.plotting import lag_plot
series = Series.from_csv('daily-minimum-temperatures.csv', header=0)
lag_plot(series)
pyplot.show()

运行该示例将x轴上的温度数据(t)与y轴上的前一天(t-1)的温度进行对比。 

最低每日温度数据集滞后图

最低每日温度数据集滞后图

我们可以看到沿着对角线的大型观察球。它清楚地显示了一种关系或某种相关性。

对于任何其他滞后观察,可以重复此过程,例如,如果我们想要查看过去7天或上个月或去年同一天的关系。

我们可以做的另一个快速检查是直接计算观察和滞后变量之间的相关性。

我们可以使用像Pearson相关系数这样的统计检验。这产生了一个数字,用于总结两个变量在-1(负相关)和+1(正相关)之间的相关性,其中小值接近零表示低相关性,高值高于0.5或低于-0.5表示高相关性。

可以使用滞后数据集的DataFrame上的corr()函数轻松计算相关性。

下面的示例创建最小每日温度数据集的滞后版本,并计算每列与其他列(包括其自身)的相关矩阵。

from pandas import Series
from pandas import DataFrame
from pandas import concat
from matplotlib import pyplot
series = Series.from_csv('daily-minimum-temperatures.csv', header=0)
values = DataFrame(series.values)
dataframe = concat([values.shift(1), values], axis=1)
dataframe.columns = ['t-1', 't+1']
result = dataframe.corr()
print(result)

这是对上图的一个很好的确认。 

它显示观察值与滞后= 1值之间的强正相关(0.77)。

         t-1      t+1
t-1  1.00000  0.77487
t+1  0.77487  1.00000

这对于一次性检查很有用,但如果我们想在时间序列中检查大量滞后变量,这是很乏味的。 

接下来,我们将看一下此方法的扩展版本。

自相关图

我们可以绘制每个滞后变量的相关系数。

这可以非常快速地了解哪些滞后变量可能是用于预测模型的良好候选者以及观察值与其历史值之间的关系如何随时间变化。

我们可以手动计算每个滞后变量的相关值并绘制结果。值得庆幸的是,Pandas提供了一个名为autocorrelation_plot()函数的内置图。

该图提供了沿x轴的滞后数和y轴上-1和1之间的相关系数值。该图还包括实线和虚线,表示相关值的95%和99%置信区间。这些线上方的相关值比线下方的相关值更重要,为选择更相关的滞后值提供阈值或截止值。

from pandas import Series
from matplotlib import pyplot
from pandas.tools.plotting import autocorrelation_plot
series = Series.from_csv('daily-minimum-temperatures.csv', header=0)
autocorrelation_plot(series)
pyplot.show()

运行该示例显示了正负相关的摆动,因为温度值在前一年的夏季和冬季变化。 

熊猫自相关图

                                             熊猫自相关图

statsmodels库还在plot_acf()函数中提供了一个版本的绘图作为线图。

from pandas import Series
from matplotlib import pyplot
from statsmodels.graphics.tsaplots import plot_acf
series = Series.from_csv('daily-minimum-temperatures.csv', header=0)
plot_acf(series, lags=31)
pyplot.show()

在此示例中,我们将评估的滞后变量限制为31以便于阅读。 

Statsmodels Autocorrelation Plot

                           Statsmodels Autocorrelation Plot

现在我们知道如何在时间序列中查看自相关,让我们看一下使用自回归建模它。

在我们这样做之前,让我们建立基准性能。

持久性模型

假设我们想要开发一个模型来预测所有先前观察结果中数据集中最近7天的最低温度。

我们可以用来做出预测的最简单模型是坚持最后一次观察。我们可以将其称为持久性模型,它为我们可用于与自回归模型进行比较的问题提供了性能基准。

我们可以通过将观察结果分成训练集和测试集来开发问题的测试工具,只将数据集中的最后7个观测值分配给测试集作为我们希望预测的“看不见的”数据。

使用前瞻性验证模型进行预测,以便我们可以保留第二天的最新观察结果。这意味着我们没有进行7天的预测,而是7天的预测。

from pandas import Series
from pandas import DataFrame
from pandas import concat
from matplotlib import pyplot
from sklearn.metrics import mean_squared_error
series = Series.from_csv('daily-minimum-temperatures.csv', header=0)
# create lagged dataset
values = DataFrame(series.values)
dataframe = concat([values.shift(1), values], axis=1)
dataframe.columns = ['t-1', 't+1']
# split into train and test sets
X = dataframe.values
train, test = X[1:len(X)-7], X[len(X)-7:]
train_X, train_y = train[:,0], train[:,1]
test_X, test_y = test[:,0], test[:,1]


# persistence model
def model_persistence(x):
    return x
 
# walk-forward validation
predictions = list()
for x in test_X:
    yhat = model_persistence(x)
    predictions.append(yhat)
test_score = mean_squared_error(test_y, predictions)
print('Test MSE: %.3f' % test_score)
# plot predictions vs expected
pyplot.plot(test_y)
pyplot.plot(predictions, color='red')
pyplot.show()

运行该示例将打印均方误差(MSE)。 

该值提供问题的基准性能。

Test MSE: 3.423

与模型的预测(红色)相比,绘制了接下来7天的预期值(蓝色)。 

持久性模型的预测

                                          持久性模型的预测

自回归模型

自回归模型是一种线性回归模型,它使用滞后变量作为输入变量。

我们可以使用scikit-learn中的LinearRegession类手动计算线性回归模型,并手动指定要使用的滞后输入变量。

或者,statsmodels库提供自动回归模型,该模型使用统计测试自动选择适当的滞后值并训练线性回归模型。它在AR类中提供

我们可以通过首先创建模型AR()然后调用fit()来训练它在我们的数据集上来使用此模型。这将返回ARResult对象。

一旦适合,我们可以使用该模型通过调用future()函数来进行预测,以用于将来的许多观察。这将创建1个7天预测,这与上面的持久性示例不同。

下面列出了完整的示例。

from pandas import Series
from matplotlib import pyplot
from statsmodels.tsa.ar_model import AR
from sklearn.metrics import mean_squared_error
series = Series.from_csv('daily-minimum-temperatures.csv', header=0)
# split dataset
X = series.values
train, test = X[1:len(X)-7], X[len(X)-7:]
# train autoregression
model = AR(train)
model_fit = model.fit()
print('Lag: %s' % model_fit.k_ar)
print('Coefficients: %s' % model_fit.params)
# make predictions
predictions = model_fit.predict(start=len(train), end=len(train)+len(test)-1, dynamic=False)
for i in range(len(predictions)):
    print('predicted=%f, expected=%f' % (predictions[i], test[i]))
error = mean_squared_error(test, predictions)
print('Test MSE: %.3f' % error)
# plot results
pyplot.plot(test)
pyplot.plot(predictions, color='red')
pyplot.show()

首先运行该示例在训练的线性回归模型中打印所选择的最佳滞后和系数列表。 

我们可以看到选择并训练了29个滞后模型。考虑到这个滞后与一个月的平均天数有多接近,这很有意思。

然后打印7天预测,总结预测的均方误差。

Lag: 29
Coefficients: [  5.57543506e-01   5.88595221e-01  -9.08257090e-02   4.82615092e-02
   4.00650265e-02   3.93020055e-02   2.59463738e-02   4.46675960e-02
   1.27681498e-02   3.74362239e-02  -8.11700276e-04   4.79081949e-03
   1.84731397e-02   2.68908418e-02   5.75906178e-04   2.48096415e-02
   7.40316579e-03   9.91622149e-03   3.41599123e-02  -9.11961877e-03
   2.42127561e-02   1.87870751e-02   1.21841870e-02  -1.85534575e-02
  -1.77162867e-03   1.67319894e-02   1.97615668e-02   9.83245087e-03
   6.22710723e-03  -1.37732255e-03]
predicted=11.871275, expected=12.900000
predicted=13.053794, expected=14.600000
predicted=13.532591, expected=14.000000
predicted=13.243126, expected=13.600000
predicted=13.091438, expected=13.500000
predicted=13.146989, expected=15.700000
predicted=13.176153, expected=13.000000
Test MSE: 1.502

绘制预期(蓝色)与预测值(红色)的图。 

预测看起来相当不错(每天约1摄氏度),第5天有很大的偏差。

固定AR模型的预测

                                       固定AR模型的预测

随着新观察结果的出现,statsmodels API无法轻松更新模型。

一种方法是每当新的观察结果可用时重新训练AR模型,并且这可能是有效的方法,如果不是计算上昂贵的话。

另一种方法是使用学习的系数并手动进行预测。这要求保留29个先前观察的历史,并且从模型中检索系数并在回归方程中使用以得出新的预测。

系数以阵列形式提供,截距项后跟每个滞后变量的系数,从t-1到tn开始。我们只需要按照正确的顺序在观察历史中使用它们,如下所示:

yhat = b0 + b1*X1 + b2*X2 ... bn*Xn

以下是完整的示例。 

from pandas import Series
from matplotlib import pyplot
from statsmodels.tsa.ar_model import AR
from sklearn.metrics import mean_squared_error
series = Series.from_csv('daily-minimum-temperatures.csv', header=0)
# split dataset
X = series.values
train, test = X[1:len(X)-7], X[len(X)-7:]
# train autoregression
model = AR(train)
model_fit = model.fit()
window = model_fit.k_ar
coef = model_fit.params
# walk forward over time steps in test
history = train[len(train)-window:]
history = [history[i] for i in range(len(history))]
predictions = list()
for t in range(len(test)):
length = len(history)
lag = [history[i] for i in range(length-window,length)]
yhat = coef[0]
for d in range(window):
yhat += coef[d+1] * lag[window-d-1]
obs = test[t]
predictions.append(yhat)
history.append(obs)
print('predicted=%f, expected=%f' % (yhat, obs))
error = mean_squared_error(test, predictions)
print('Test MSE: %.3f' % error)
# plot
pyplot.plot(test)
pyplot.plot(predictions, color='red')
pyplot.show()

再次,运行该示例打印预测和均方误差。 

predicted=11.871275, expected=12.900000
predicted=13.659297, expected=14.600000
predicted=14.349246, expected=14.000000
predicted=13.427454, expected=13.600000
predicted=13.374877, expected=13.500000
predicted=13.479991, expected=15.700000
predicted=14.765146, expected=13.000000
Test MSE: 1.451

在比较错误分数时,我们可以看到预测的一个小改进。 

滚动AR模型的预测

                                             滚动AR模型的预测

评论 15
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值