《Python数据分析与挖掘实战》第11章——应用系统负载分析与磁盘容量预测(时间序列)


《Python数据分析与挖掘实战》的实战部分的第11章的数据——《应用系统负载分析与磁盘容量预测》。

补充原文中的细节代码,并给出文中涉及到的内容的完整代码;

在作者所给代码的基础上增加的内容包括:

1)数据探索时画C盘/D盘已使用空间的时序图,并根据自相关和偏相关图判定平稳性,确定了所用模型是采用ARMA或者ARIMA,而不是AR或者MA;

2)模型构建构建基于ARIMA或者ARMA的模型,采用AIC/BIC/HQ信息准则对模型进行定阶,确定p,q参数,从而选择最优模型;

1.背景与目标分析

目标:根据历史磁盘数据,采用时间序列分析法,来预测应用系统服务器磁盘已经使用空间的大小;

需求:为管理员提供定制化的预警提示。

实质:时间序列—回归

2.2 数据探索

2.1 查看数据信息

inputfile1 = 'discdata.xls'
data = pd.read_excel(inputfile1)
data.head()

在这里插入图片描述

data.info()

在这里插入图片描述

2.2 数据平稳性分析

d = data[(data['ENTITY']=='C:\\') & (data['TARGET_ID']==184 )]

在这里插入图片描述


import matplotlib as mpl
import matplotlib.pyplot as plt
plt.rc('figure',figsize=(9,7))
import datetime
import matplotlib.dates as mdates
plt.rcParams['font.sans-serif']=['SimHei']
plt.rcParams['axes.unicode_minus']= False
 
fig  = plt.figure()
ax = fig.add_subplot(1,1,1)
ax.set_title(u"C盘已使用空间的时序图")
# ax.set_xlabel(u'日期')
ax.set(xlabel=u'日期',ylabel=u'磁盘使用大小')
# 图上时间间隔显示为10天
ax.xaxis.set_major_locator(mdates.DayLocator(bymonthday=range(1,32), interval=10)) 
ax.xaxis.set_major_formatter(mdates.DateFormatter("%Y-%m-%d"))
plt.subplots_adjust(bottom=0.13,top=0.95)
ax.plot(d['COLLECTTIME'],d['VALUE'],'ro-',)
 
fig.autofmt_xdate() #自动根据标签长度进行旋转
'''
for label in ax.xaxis.get_ticklabels():   #此语句完成功能同上
       label.set_rotation(45)
'''
plt.savefig('c.jpg')
plt.show()

在这里插入图片描述
同理,D盘时序图:
在这里插入图片描述
可以看出,磁盘数据使用情况都不具备有周期性,他们表现出缓慢性的增长,呈现趋势性。数据非平稳!

3 数据预处理

3.1 数据清洗

一般情况下默认磁盘容量是定值,所以需要剔除磁盘容量重复的数据

data.drop_duplicates(data.columns[:-1],inplace=True)
data.to_excel('dataCleaned.xlsx')

3.2 数据变换——属性构造

df_g = df.groupby('COLLECTTIME').size()
indexpre = df_g.index
data_processed = DataFrame([],index = indexpre, columns=['SYS_NAME','CWXT_DB:184:C:\\','CWXT_DB:184:D:\\'])
data_processed['SYS_NAME'] =  u'财务管理系统'
data_processed['CWXT_DB:184:C:\\'] = df['VALUE'][df['ENTITY']=='C:\\'].values
data_processed['CWXT_DB:184:D:\\'] = df['VALUE'][df['ENTITY']=='D:\\'].values
data_processed.head()

在这里插入图片描述

4 模型构建

在这里插入图片描述

4.1 确定模型—— ARMA or ARIMA?

ARMA和ARIMA的区别?

不管是ARMA还是ARIMA模型,都是对平稳数据建模。前者是直接针对平稳数据建模,无需进行差分变换;后者则需要先对数据进行差分,差分平稳后再建模。

由于ARIMA/ARMA 模型对时间序列的要求是平稳型,因此需要进行平稳性检验。

通过自相关和偏相关图判定平稳性,并确定所用模型

  • 如果自相关是拖尾,偏相关截尾,则用 AR 算法
  • 如果自相关截尾,偏相关拖尾,则用 MA 算法
  • 如果自相关和偏相关都是拖尾,则用 ARMA 算法, ARIMA 是 ARMA 算法的扩展版,用法类似
# 查看是否序列平稳 自相关图法/时间序列的散点图
from scipy import  stats
import matplotlib.pyplot as plt
import statsmodels.api as sm
from statsmodels.graphics.api import qqplot
dta = df['CWXT_DB:184:C:\\']
 # 原数据的的自相关图与偏自相关图
fig = plt.figure(figsize=(12,12))
ax1=fig.add_subplot(411)# 自相关图
fig = sm.graphics.tsa.plot_acf(dta,lags=40,ax=ax1)
ax1.set_title(u'原始数据的自相关图')
 
ax2 = fig.add_subplot(412)# 篇自相关图
fig = sm.graphics.tsa.plot_pacf(dta,lags=40,ax=ax2)
ax2.set_title(u'原始数据的偏相关图')
 
# 一阶差分后的自相关图与偏自相关图
dta= dta.diff(1).dropna() # 注意一定要将查分后的空值去掉再取自相关系数
ax3=fig.add_subplot(413)# 自相关图
fig = sm.graphics.tsa.plot_acf(dta,lags=40,ax=ax3)
ax3.set_title(u'一阶差分后的自相关图')
 
ax4 = fig.add_subplot(414)# 篇自相关图
fig = sm.graphics.tsa.plot_pacf(dta,lags=40,ax=ax4)
ax4.set_title(u'一阶差分后的偏相关图')
plt.savefig('acf_pacf.jpg')
plt.show()

在这里插入图片描述
通过自相关图可以发现,该图自相关和偏相关都是拖尾,因此,确定是ARMA算法、ARIMA均可

4.2 平稳性检测

几种平稳性检验方式(以C盘为例)

  • 方法1:时间序列图法

    具体见数据探索部分。通过图形可以看出该序列值不平稳(若平稳,会围绕某值上下晃动)

  • 方法2:单位根检验(ADF)

# 方法:采用单位根检验(ADF)的方法或者时序图的方法(见数据探索模块)
from statsmodels.tsa.stattools import adfuller as ADF
判断D盘数据的平稳性,以及确定几次差分后平稳
x = ADF(df['CWXT_DB:184:C:\\'])
print x 
  • 方法3:游程检验
from statsmodels.sandbox.stats.runs import runstest_1samp as RSS
x = RSS(df['CWXT_DB:184:C:\\'])
print x
  • 方法4: 自相关系数法
from statsmodels.tsa.stattools import acf as ACF
x = ACF(df['CWXT_DB:184:C:\\'])
print x
  • 方法5:通过自相关和偏相关图判定

    通过自相关图法/时间序列的散点图,观察平稳性,前面内容已经介绍。

方法2 单位根检验(ADF)

inputfile = 'attrsConstruction.xlsx'
#由于ARIMA 模型对时间序列的要求是平稳型,需要进行平稳性检验
data = pd.read_excel(inputfile)
df = data.iloc[:len(data)-5]# 不使用最后五个数据(作为预测参考)
df
diff = 0

在这里插入图片描述

#1)平稳性检测 :判断是否平稳,若不平稳,对其进行差分处理直至平稳
# 方法:采用单位根检验(ADF)的方法或者时序图的方法(见数据探索模块)
# 注意:其他平稳性检验方法见steadyCheck.py文件
from statsmodels.tsa.stattools import adfuller as ADF
diff = 0
# 判断D盘数据的平稳性,以及确定几次差分后平稳
adf = ADF(df['CWXT_DB:184:C:\\'])
print(adf) 

while adf[1] >= 0.05 : # adf[1]是p值,p值小于0.05认为是平稳的
    print(adf[1])
    diff = diff + 1
    print(diff)
    adf = ADF(df['CWXT_DB:184:C:\\'].diff(diff).dropna())#注意,差分后使用ADF检验时,必须去掉空值
    
print(u'原始序列经过%s阶差分后归于平稳,p值为%s' % (diff, adf[1]))
df['CWXT_DB:184:C:\\_adf'] = df['CWXT_DB:184:C:\\'].diff(1)

在这里插入图片描述

4.2 白噪声检验

  • 目的:验证序列中有用信息是否已经被提取完毕,需要进行白噪声检验。若序列是白噪声序列,说明序列中有用信息已经被提取完,只剩随机扰动
  • 方法:采用LB统计量的方法进行白噪声检验
  • 若没有通过白噪声检验,则需要进行模型识别,识别其模型属于AR、MA还是ARMA。
inputfile2 = 'attrsConstruction.xlsx'
data1 = pd.read_excel(inputfile2)
data1 = data1.iloc[:len(data1)-5]# 不使用最后五个数据(作为预测参考)
 
# 白噪声检测
from statsmodels.stats.diagnostic import acorr_ljungbox
 
[[lb], [p]] = acorr_ljungbox(data1['CWXT_DB:184:C:\\'], lags = 1) ## lags是残差延迟个数
if p < 0.05:
    print (u'原始序列为非白噪声序列,对应的p值为:%s' % p)
else:
    print (u'原始序列为白噪声序列,对应的p值为:%s' % p)
 
[[lb], [p]] = acorr_ljungbox(data1['CWXT_DB:184:C:\\'].diff(1).dropna(), lags = 1)
if p < 0.05:
    print (u'一阶差分序列为非白噪声序列,对应的p值为:%s' % p)
else:
    print (u'一阶差分序列为白噪声序列,对应的p值为:%s' % p)

在这里插入图片描述

4.3 模型识别(最优模型)

  • 方法:采用极大似然比方法进行模型的参数估计,估计各个参数的值。
  • 然后针对各个不同模型,采用信息准则方法(有三种:BIC/AIC/HQ)对模型进行定阶,确定p,q参数,从而选择最优模型。
  • 注意,进行此步时,index需要为时间序列类型
  • 确定最佳p、d、q的值
inputfile3 = 'attrsConstruction.xlsx'
data2 = pd.read_excel(inputfile3,index_col='COLLECTTIME')
xtest_value=data2['CWXT_DB:184:C:\\'][-5:]#测试集
data2 = data2.iloc[:len(data2)-5]# 不使用最后五个数据(作为预测参考) 
xdata2 = data2['CWXT_DB:184:C:\\']
# ARIMA(p,d,q)中,AR是自回归,p为自回归项数;MA为滑动平均,q为滑动平均项数,d为使之成为平稳序列所做的差分次数(阶数),由前一步骤知d=1
# from statsmodels.tsa.arima_model import ARIMA#建立ARIMA(p,d,q)模型
from statsmodels.tsa.arima_model import ARMA #建立ARMA(p,q)模型

# 定阶
# 目前选择模型常用如下准则!!!!!
# 增加自由参数的数目提高了拟合的优良性,
# AIC/BIC/HQ鼓励数据拟合的优良性但是尽量避免出现过度拟合(Overfitting)的情况。所以优先考虑的模型应是AIC/BIC/HQ值最小的那一个
#* AIC=-2 ln(L) + 2 k 中文名字:赤池信息量 akaike information criterion (AIC)
# * BIC=-2 ln(L) + ln(n)*k 中文名字:贝叶斯信息量 bayesian information criterion (BIC)
# * HQ=-2 ln(L) + ln(ln(n))*k hannan-quinn criterion (HQ)

# AIC方式定信息准则 + ARMA --------!!!模型检验中也要对应修改!!!------------------------------

pmax = int(len(xdata2)/10) # 一般阶数不超过length/10
qmax = int(len(xdata2)/10) # 一般阶数不超过length/10

matrix = [] # aic矩阵
for p in range(pmax+1):
    tmp = []
    for q in range(qmax+1):
        try:#存在部分为空值,会报错
#             tmp.append(ARMA(xdata2, (p,q)).fit().bic) #  BIC方式
            tmp.append(ARMA(xdata2, (p,q)).fit().aic) #  AIC方式
#             tmp.append(ARMA(xdata2, (p,q)).fit().hq) #  HQ方式
        except:
            tmp.append(None)
            
    matrix.append(tmp)
    
matrix = pd.DataFrame(matrix) # 从中可以找出最小值
print(matrix)
print(matrix.stack())

在这里插入图片描述

4.4 模型检验

# 确定模型后,需要检验其残差序列是否是白噪声,若不是,说明,残差中还存在有用的信息,需要修改模型或者进一步提取。
# 若其残差不是白噪声,重新更换p,q的值,重新确定
import pandas as pd
import numpy as np

while 1:
    p, q = matrix.stack().idxmin() # 先展平该表格,然后找出最小值的索引位置
    print (u'当前AIC最小的p值与q值分别为:%s、%s' % (p,q))
    
    lagnum = 12 # 残差延迟个数

    arma = ARMA(xdata2, (p,q)).fit() # 建立并训练模型
    xdata_pred = arma.predict() # 预测
    pred_error = (xdata_pred - xdata2).dropna() # 计算残差

    # 白噪声检测
    from statsmodels.stats.diagnostic import acorr_ljungbox

    lbx, px = acorr_ljungbox(pred_error, lags = lagnum)
    h = (px < 0.05).sum() # p值小于0.05,认为是非噪声
    if h > 0:
        print (u'模型ARMA(%s,%s)不符合白噪声检验' % (p,q))
        print ('在AIC矩阵中去掉[%s,%s]组合,重新进行计算' % (p,q))
        matrix.iloc[p,q] =  np.nan
        arimafail = arma
        continue
    else:
        print (p,q)
        print (u'模型ARMA(%s,%s)符合白噪声检验' % (p,q))
        break

在这里插入图片描述

arma.summary() # 当p,q值为0,0时,summary方法报错

在这里插入图片描述

4.5 模型预测

forecast_values, forecasts_standard_error, forecast_confidence_interval = arma.forecast(5)
forecast_values

在这里插入图片描述

predictdata = pd.DataFrame(xtest_value)
predictdata.insert(1,'CWXT_DB:184:C:\\_predict',forecast_values)
predictdata.rename(columns={'CWXT_DB:184:C:\\':u'实际值','CWXT_DB:184:C:\_predict':u'预测值'},inplace=True)
result_d = predictdata.applymap(lambda x: '%.2f' % x) # 将表格中各个浮点值都格式化
result_d.to_excel('pedictdata_C_AIC_ARMA.xlsx')
result_d

在这里插入图片描述

4.5 模型评价

为了评价时序预测模型效果的好坏,本章采用3个衡量模型预测精度的统计量指标:平均绝对误差、均方根误差、平均绝对百分误差

# -*- coding:utf-8 -*-
import pandas as pd
 
inputfile4 = 'pedictdata_C_AIC_ARMA.xlsx'
result = pd.read_excel(inputfile4,index_col='COLLECTTIME')
result = result.applymap(lambda x: x/10**6)
print result
 
# 计算误差
abs_ = (result[u'预测值']-result[u'实际值']).abs()
mae_ = abs_.mean() # mae平均绝对误差
rmas_ = ((abs_**2).mean())**0.5 #rmas均方根误差
mape_ = (abs_/result[u'实际值']).mean() #mape平均绝对百分误差
# print abs_
print mae_
print rmas_
print mape_
errors = 1.5
print '误差阈值为%s' % errors
if (mae_ < errors) & (rmas_ < errors) & (mape_ < errors):
    print (u'平均绝对误差为:%.4f, \n均方根误差为:%.4f, \n平均绝对百分误差为:%.4f' % (mae_, rmas_, mape_))
    print '误差检验通过!'
else:
    print '误差检验不通过!'

在这里插入图片描述

5 预测可视化

inputfile = 'attrsConstruction.xlsx'
 
data = pd.read_excel(inputfile)
df = data.iloc[:len(data)-5]
 
inputfile1 = 'pedictdata_C.xlsx'# 预测值
result = pd.read_excel(inputfile1)
inputfile2 = 'pedictdata_D.xlsx'# 预测值
result1 = pd.read_excel(inputfile2)
 
 
import matplotlib as mpl
import matplotlib.pyplot as plt
plt.rc('figure',figsize=(9,9))
import datetime
import matplotlib.dates as mdates
plt.rcParams['font.sans-serif']=['SimHei']
plt.rcParams['axes.unicode_minus']= False
fig  = plt.figure()
fig.set(alpha=0.2)#设置图标透明度
 
ax = fig.add_subplot(2,1,1)
ax.set_title(u"C盘空间时序预测图")
 
ax.set(xlabel=u'日期',ylabel=u'磁盘使用大小')
# 图上时间间隔显示为10天
ax.xaxis.set_major_locator(mdates.DayLocator(bymonthday=range(1,32), interval=7)) 
ax.xaxis.set_major_formatter(mdates.DateFormatter("%Y-%m-%d"))
plt.subplots_adjust(bottom=0.13,top=0.95)
ax.plot(df['COLLECTTIME'],df['CWXT_DB:184:C:\\'],'ro--',)
ax.plot(result['COLLECTTIME'],result[u'实际值'],'g+--',)
ax.plot(result['COLLECTTIME'],result[u'预测值'],'b*-',)
ax.grid(axis='y',linestyle='--')
ax.legend()
fig.autofmt_xdate() #自动根据标签长度进行旋转
'''for label in ax.xaxis.get_ticklabels():   #此语句完成功能同上
       label.set_rotation(45)
'''
 
ax1 = fig.add_subplot(2,1,2)
ax1.set_title(u"D盘空间时序预测图")
# ax.set_xlabel(u'日期')
ax1.set(xlabel=u'日期',ylabel=u'磁盘使用大小')
# 图上时间间隔显示为10天
ax1.xaxis.set_major_locator(mdates.DayLocator(bymonthday=range(1,32), interval=7)) 
ax1.xaxis.set_major_formatter(mdates.DateFormatter("%Y-%m-%d"))
plt.subplots_adjust(bottom=0.13,top=0.95)
ax1.plot(df['COLLECTTIME'],df['CWXT_DB:184:D:\\'],'co--',)
ax1.plot(result1['COLLECTTIME'],result1[u'实际值'],'m+--',)
ax1.plot(result1['COLLECTTIME'],result1[u'预测值'],'y*-',)
ax1.grid(axis='y',linestyle='--')
ax1.legend()
fig.autofmt_xdate() #自动根据标签长度进行旋转
'''for label in ax.xaxis.get_ticklabels():   #此语句完成功能同上
       label.set_rotation(45)
'''
plt.savefig('data_predict_pic.jpg')
plt.show()

在这里插入图片描述
参考:https://blog.csdn.net/u012063773/article/details/79313645

评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值