数学建模方法—【07】灰色预测GM(1,1)

灰色预测GM(1,1)

Page Counter

1. 概念:
系统说明
白色系统系统的信息完全明确,没有缺少等问题
灰色系统系统的部分信息已知,部分信息未知。
黑色系统系统的内部信息是未知的

灰色预测: 对既含有已知信息又含有不确定信息的系统进行预测,就是对在一定范围内变化的、与时间有关的灰色过程进行预测的预测方法。

2. GM(1,1)模型

G:Gray
M:Model
第一个1:表示微分方程是一阶的
第二个1:表示只有一个自变量
    GM(1,1)是使用原始的离散非负数据列,通过一次累加生成削弱随机性的较有规律的新的离散数据列,然后通过建立微分方程模型,得到在离散点处的解经过累减生成的原始数据的近似估计值,从而预测原始数据的后续发展。

3. 原理

    设 x 0 = ( x 0 ( 1 ) , x 0 ( 2 ) , x 0 ( 3 ) , . . . , x 0 ( n ) ) x^0 = (x^0(1), x^0(2), x^0(3), ..., x^0(n)) x0=(x0(1),x0(2),x0(3),...,x0(n))是最初的非负数据列,对其进行一次累加,得到新的生成的数据列 x ( 1 ) ( x ( 0 ) 的 1 − A G O 序 列 , A G O : A c c u m u l a t i n g G e n e r a t i o n O p e r a t o r ) x^{(1)}(x^{(0)}的1-AGO序列,AGO: Accumulating Generation Operator) x(1)(x(0)1AGOAGO:AccumulatingGenerationOperator)
x ( 1 ) = ( x ( 1 ) ( 1 ) , x ( 1 ) ( 2 ) , . . . , x ( 1 ) ( n ) ) x^{(1)}=(x^{(1)}(1), x^{(1)}(2), ... ,x^{(1)}(n)) x(1)=(x(1)(1),x(1)(2),...,x(1)(n))
其中 x ( 1 ) ( m ) = ∑ i = 1 m x ( 0 ) ( i ) , m = 1 , 2... , n x^{(1)}(m) = \sum\limits_{i=1}^m{x^{(0)}(i)}, m=1,2...,n x(1)(m)=i=1mx(0)(i),m=1,2...,n
    令 z ( 1 ) z^{(1)} z(1)为数列 x ( 1 ) x^{(1)} x(1)的紧邻均值生成数列,即
z ( 1 ) = ( z ( 1 ) ( 2 ) , z ( 1 ) ( 3 ) , . . . , z ( 1 ) ( n ) ) z^{(1)}=(z^{(1)}(2), z^{(1)}(3), ...,z^{(1)}(n)) z(1)=(z(1)(2),z(1)(3),...,z(1)(n))
其中, z ( 1 ) ( m ) = δ x ( 1 ) ( m ) + ( 1 − δ ) x ( 1 ) ( m − 1 ) , m = 2 , 3 , . . . , n 且 δ 一 般 为 0.5 z^{(1)}(m)=\delta x^{(1)}(m)+(1-\delta) x^{(1)}(m-1),m=2,3,...,n且\delta一般为0.5 z(1)(m)=δx(1)(m)+(1δ)x(1)(m1),m=2,3,...,nδ0.5
举例:
在这里插入图片描述
    一般情况下,称 x ( 0 ) ( k ) + a z ( 1 ) ( k ) = b x^{(0)}(k)+az^{(1)}(k)=b x(0)(k)+az(1)(k)=b G M ( 1 , 1 ) GM(1,1) GM(1,1)的基本形式 ( k = 2 , 3 , . . . , n ) (k=2,3,...,n) (k=2,3,...,n),其中b表示灰作用量,-a表示发展系数。
引入矩阵形式:
u = ( a , b ) T , Y = [ x 0 ( 2 ) x 0 ( 3 ) . . . . x 0 ( n ) ] , B = [ − z 1 ( 2 ) 1 − z 1 ( 3 ) 1 . . . . . . − z 1 ( n ) 1 ] u=(a,b)^T,Y=\left[ \begin{matrix} x^{0}(2) \\ x^{0}(3) \\ .... \\ x^{0}(n) \end{matrix} \right],B=\left[ \begin{matrix} -z^{1}(2) &1\\ -z^{1}(3) &1\\ ... &...\\ -z^{1}(n)&1 \end{matrix} \right] u=(a,b)T,Y=x0(2)x0(3)....x0(n),B=z1(2)z1(3)...z1(n)11...1
所以 x ( 0 ) ( k ) + a z ( 1 ) ( k ) = b x^{(0)}(k)+az^{(1)}(k)=b x(0)(k)+az(1)(k)=b可以表示为 Y = B u Y=Bu Y=Bu
x ( 0 ) ( k ) + a z ( 1 ) ( k ) = b x^{(0)}(k)+az^{(1)}(k)=b x(0)(k)+az(1)(k)=b可以表示为 x ( 0 ) ( k ) = b − a z ( 1 ) ( k ) x^{(0)}(k)=b-az^{(1)}(k) x(0)(k)=baz(1)(k)该式子可以看为一次函数的形式 y = k x + b y=kx+b y=kx+b,所以可以根据OLS最小二乘法,得到参数a,b的估计值为(最小二乘法请读者自行查询理解):
u ^ = ( a ^ b ^ ) = ( B T B ) − 1 B T Y \widehat{u}=\binom{\widehat{a}}{\widehat{b}}=(B^TB)^{-1}B^TY u =(b a )=(BTB)1BTY
得到 a ^ 和 b ^ \widehat{a}和\widehat{b} a b 后,便可得
x ( 0 ) ( k ) = b ^ − a ^ z ( 1 ) ( k ) , k = 2 , 3 , . . . , n x^{(0)}(k)=\widehat{b}-\widehat{a}z^{(1)}(k) ,k=2,3,...,n x(0)(k)=b a z(1)(k),k=2,3,...,n
又因为
x ( 0 ) ( k ) = x ( 1 ) ( k ) − x ( 1 ) ( k − 1 ) x^{(0)}(k)=x^{(1)}(k)-x^{(1)}(k-1) x(0)(k)=x(1)(k)x(1)(k1)
so
x ( 1 ) ( k ) − x ( 1 ) ( k − 1 ) = b ^ − a ^ z ( 1 ) ( k ) x^{(1)}(k)-x^{(1)}(k-1)=\widehat{b}-\widehat{a}z^{(1)}(k) x(1)(k)x(1)(k1)=b a z(1)(k)
根据牛顿-莱布尼茨公式可得:
x ( 1 ) ( k ) − x ( 1 ) ( k − 1 ) = ∫ k − 1 k d x ( 1 ) ( t ) d t d t x^{(1)}(k)-x^{(1)}(k-1) = \int_{k-1}^k{dx^{(1)}(t)\over dt}dt x(1)(k)x(1)(k1)=k1kdtdx(1)(t)dt
又因为 z ( 1 ) ( m ) = 0.5 x ( 1 ) ( m ) + 0.5 x ( 1 ) ( m − 1 ) z^{(1)}(m)=0.5 x^{(1)}(m)+0.5 x^{(1)}(m-1) z(1)(m)=0.5x(1)(m)+0.5x(1)(m1) z ( 1 ) ( k ) = x ( 1 ) ( k − 1 ) + x ( 1 ) ( k ) 2 z^{(1)}(k) = {x^{(1)}(k-1)+x^{(1)}(k)\over 2} z(1)(k)=2x(1)(k1)+x(1)(k)
则根据定积分的几何意义可得:
z ( 1 ) ( k ) = x ( 1 ) ( k − 1 ) + x ( 1 ) ( k ) 2 = ∫ k − 1 k x ( 1 ) ( t ) d t z^{(1)}(k) = {x^{(1)}(k-1)+x^{(1)}(k)\over 2}= \int_{k-1}^k{x^{(1)}(t)}dt z(1)(k)=2x(1)(k1)+x(1)(k)=k1kx(1)(t)dt
整理得到:
∫ k − 1 k d x ( 1 ) ( t ) d t d t = − a ^ ∫ k − 1 k x ( 1 ) ( t ) d t − ∫ k − 1 k b ^ d t = ∫ k − 1 k [ b ^ − a ^ x ( 1 ) ( t ) ] d t \int_{k-1}^k{dx^{(1)}(t)\over dt}dt=-\widehat{a}\int_{k-1}^k{x^{(1)}(t)}dt-\int_{k-1}^{k}\widehat{b}dt=\int_{k-1}^k[\widehat{b}-\widehat{a}x^{(1)}(t)]dt k1kdtdx(1)(t)dt=a k1kx(1)(t)dtk1kb dt=k1k[b a x(1)(t)]dt
可得GM(1,1)的白化方程
d x ( 1 ) ( t ) d t = b ^ − a ^ x ( 1 ) ( t ) {dx^{(1)}(t)\over dt}=\widehat{b}-\widehat{a}x^{(1)}(t) dtdx(1)(t)=b a x(1)(t)
再对白化方程进行研究(中间过程省略),可得出GM(1,1)模型的本质是有条件的指数拟合:
f ( x ) = C 1 e c 2 ( x − 1 ) f(x)=C_1e^{c_2(x-1)} f(x)=C1ec2(x1)
所以数据具有准指数规律是使用灰色系统建模的理论基础,即数据具有准指数规律是使用GM(1,1)模型的前提!!!!

4. 使用GM(1,1)的步骤
1. 准指数规律的检验:

序列 x ( 0 ) x^{(0)} x(0)的级比 λ ( k ) = x ( 0 ) ( k − 1 ) x ( 0 ) ( k ) , k = 2 , 3 , . . . , n \lambda(k)={x^{(0)}(k-1) \over x^{(0)}{(k)}},k=2,3,...,n λ(k)=x(0)(k)x(0)(k1),k=2,3,...,n
若所有的级比都落在区间 ( e − 2 n + 1 , e 2 n + 1 ) (e^{{-2 \over n+1}},e^{{2 \over n+1}}) (en+12,en+12)内,则数列 x(0)可以利用GM(1,1)模型进行灰色预测。否则,对数据做适当的变换处理,如平移变换:
y ( 0 ) ( k ) = x ( 0 ) ( k ) + c , k = 1 , 2 , . . . , n y^{(0)}(k) = x^{(0)}(k) +c,k=1,2,...,n y(0)(k)=x(0)(k)+c,k=1,2,...,n
取合适的c使得数据列的级比都落在区间 ( e − 2 n + 1 , e 2 n + 1 ) (e^{{-2 \over n+1}},e^{{2 \over n+1}}) (en+12,en+12)内!

2. 建立GM(1,1)模型

根据原理先获得1-AGO:

x ( 1 ) = ( x ( 1 ) ( 1 ) , x ( 1 ) ( 2 ) , . . . , x ( 1 ) ( n ) ) x^{(1)}=(x^{(1)}(1), x^{(1)}(2), ... ,x^{(1)}(n)) x(1)=(x(1)(1),x(1)(2),...,x(1)(n))
其中 x ( 1 ) ( m ) = ∑ i = 1 m x ( 0 ) ( i ) , m = 1 , 2... , n x^{(1)}(m) = \sum\limits_{i=1}^m{x^{(0)}(i)}, m=1,2...,n x(1)(m)=i=1mx(0)(i),m=1,2...,n
再得到紧邻均值生成数列
    令 z ( 1 ) z^{(1)} z(1)为数列 x ( 1 ) x^{(1)} x(1)的紧邻均值生成数列,即
z ( 1 ) = ( z ( 1 ) ( 2 ) , z ( 1 ) ( 3 ) , . . . , z ( 1 ) ( n ) ) z^{(1)}=(z^{(1)}(2), z^{(1)}(3), ...,z^{(1)}(n)) z(1)=(z(1)(2),z(1)(3),...,z(1)(n))
其中, z ( 1 ) ( k ) = x ( 1 ) ( k − 1 ) + x ( 1 ) ( k ) 2 z^{(1)}(k) = {x^{(1)}(k-1)+x^{(1)}(k)\over 2} z(1)(k)=2x(1)(k1)+x(1)(k)
再得到GM(1,1)的一般模型:
x ( 0 ) ( k ) = b − a z ( 1 ) ( k ) x^{(0)}(k)=b-az^{(1)}(k) x(0)(k)=baz(1)(k)
再根据回归得到 a ^ , b ^ {\widehat{a}},{\widehat{b}} a ,b
可得GM(1,1)的白化方程
d x ( 1 ) ( t ) d t + a ^ x ( 1 ) ( t ) = b ^ {dx^{(1)}(t)\over dt}+\widehat{a}x^{(1)}(t)=\widehat{b} dtdx(1)(t)+a x(1)(t)=b
解得:
x ( 1 ) ( t ) = ( x ( 0 ) ( 1 ) − b a ) e − a ( t − 1 ) + b a x^{(1)}(t)=(x^{(0)}(1)-\frac{b}{a})e^{-a(t-1)}+\frac{b}{a} x(1)(t)=(x(0)(1)ab)ea(t1)+ab
所以得到一次累加数列预测值:
x ^ ( 1 ) ( k + 1 ) = ( x ( 0 ) ( 1 ) − b a ) e − a k + b a , k = 1 , 2 , . . . , n − 1 \hat{x}^{(1)}(k+1)=(x^{(0)}(1)-\frac{b}{a})e^{-ak}+\frac{b}{a}\quad ,k=1,2,...,n-1 x^(1)(k+1)=(x(0)(1)ab)eak+ab,k=1,2,...,n1
得到预测值为
x ^ ( 0 ) ( k + 1 ) = x ^ ( 1 ) ( k + 1 ) − x ^ ( 1 ) ( k ) , k = 1 , 2 , . . . , n − 1 \hat{x}^{(0)}(k+1)=\hat{x}^{(1)}(k+1)-\hat{x}^{(1)}(k)\quad,k=1,2,...,n-1 x^(0)(k+1)=x^(1)(k+1)x^(1)(k),k=1,2,...,n1
又因为
x ^ ( 1 ) ( k + 1 ) = ( x ( 0 ) ( 1 ) − b a ) e − a k + b a , k = 1 , 2 , . . . , n − 1 \hat{x}^{(1)}(k+1)=(x^{(0)}(1)-\frac{b}{a})e^{-ak}+\frac{b}{a}\quad ,k=1,2,...,n-1 x^(1)(k+1)=(x(0)(1)ab)eak+ab,k=1,2,...,n1
x ^ ( 1 ) ( k ) = ( x ( 0 ) ( 1 ) − b a ) e − a ( k − 1 ) + b a , k = 2 , . . . , n − 1 \hat{x}^{(1)}(k)=(x^{(0)}(1)-\frac{b}{a})e^{-a(k-1)}+\frac{b}{a}\quad ,k=2,...,n-1 x^(1)(k)=(x(0)(1)ab)ea(k1)+ab,k=2,...,n1
所以
x ^ ( 0 ) ( k + 1 ) = x ^ ( 1 ) ( k + 1 ) − x ^ ( 1 ) ( k ) \hat{x}^{(0)}(k+1)=\hat{x}^{(1)}(k+1)-\hat{x}^{(1)}(k) x^(0)(k+1)=x^(1)(k+1)x^(1)(k)

   = ( x ( 0 ) ( 1 ) − b a ) e − a k + b a − ( x ( 0 ) ( 1 ) − b a ) e − a ( k − 1 ) + b a \quad\quad\quad\quad\quad\quad\quad=(x^{(0)}(1)-\frac{b}{a})e^{-ak}+\frac{b}{a}-(x^{(0)}(1)-\frac{b}{a})e^{-a(k-1)}+\frac{b}{a} =(x(0)(1)ab)eak+ab(x(0)(1)ab)ea(k1)+ab
   = ( x ( 0 ) ( 1 ) − b a ) ( e − a k − e − a ( k − 1 ) ) \quad\quad\quad\quad\quad\quad\quad=(x^{(0)}(1)-\frac{b}{a})(e^{-ak}-e^{-a(k-1)}) =(x(0)(1)ab)(eakea(k1))
   = ( x ( 0 ) ( 1 ) − b a ) ⋅ e − a k ⋅ ( 1 − e a ) , k = 1 , 2 , . . . , n − 1 \quad\quad\quad\quad\quad\quad\quad=(x^{(0)}(1)-\frac{b}{a})·e^{-ak}·(1-e^a)\quad ,k=1,2,...,n-1 =(x(0)(1)ab)eak(1ea),k=1,2,...,n1

3. 模型评价

一般来说,GM(1,1)有2种评价方法,即评价模型对原数据的拟合程度或者还原程度:

  1. 残差检验:
    绝 对 残 差 : ε ( k ) = x ( 0 ) ( k ) − x ^ ( 0 ) ( k ) , k = 2 , 3 , . . . , n 绝对残差: \varepsilon(k)=x^{(0)}(k)-\widehat{x}^{(0)}(k) \quad,k=2,3,...,n :ε(k)=x(0)(k)x (0)(k),k=2,3,...,n
    相 对 残 差 : ε r ( k ) = ∣ x ( 0 ) ( k ) − x ^ ( 0 ) ( k ) ∣ x ( 0 ) ( k ) × 100 % , k = 2 , 3 , . . . , n 相对残差:\varepsilon_r(k)={|x^{(0)}(k)-\widehat{x}^{(0)}(k)| \over x^{(0)}(k)} \times 100\% \quad,k=2,3,...,n :εr(k)=x(0)(k)x(0)(k)x (0)(k)×100%,k=2,3,...,n
    平 均 相 对 残 差 : ε r ‾ = 1 n − 1 ∑ k = 2 n ∣ ε r ( k ) ∣ 平均相对残差:\overline{\varepsilon_r}={1 \over n-1}\sum\limits_{k=2}^{n}|\varepsilon_r(k)| :εr=n11k=2nεr(k)
    如果 ε r ‾ < 20 % \overline{\varepsilon_r}<20\% εr<20%,则认为GM(1,1)对原数据的拟合达到一般要求;
    如果 ε r ‾ < 10 % \overline{\varepsilon_r}<10\% εr<10%,则认为GM(1,1)对原数据的拟合效果非常不错;
  2. 级比偏差检验:
    序列 x ( 0 ) x^{(0)} x(0)的级比 λ ( k ) = x ( 0 ) ( k − 1 ) x ( 0 ) ( k ) , k = 2 , 3 , . . . , n \lambda(k)={x^{(0)}(k-1) \over x^{(0)}{(k)}}\quad ,k=2,3,...,n λ(k)=x(0)(k)x(0)(k1),k=2,3,...,n
    再根据发展系数 − a ^ -\widehat{a} a 计算出相应的级比偏差和平均级比偏差:
    级 比 偏 差 : η ( k ) = ∣ 1 − 1 − 0.5 a ^ 1 + 0.5 a ^ 1 σ ( k ) ∣ 级比偏差: \eta(k)=|1-{1-0.5\widehat{a} \over 1+0.5\widehat{a}} {1 \over \sigma(k)}| :η(k)=11+0.5a 10.5a σ(k)1
    平 均 级 比 偏 差 : η ‾ = ∑ k = 2 n η ( k ) n − 1 平均级比偏差: \overline\eta=\sum\limits_{k=2}^n{\eta(k) \over n-1} :η=k=2nn1η(k)
    如果 η ‾ < 0.2 \overline\eta<0.2 η<0.2,则认为GM(1,1)对原数据的拟合达到一般要求;
    如果 η ‾ < 0.1 \overline\eta<0.1 η<0.1,则认为GM(1,1)对原数据的拟合效果非常不错;
5. 代码
'''
author: Blue
time: 2020.11.10
e-mail: 2458682080@qq.com
'''
#!/usr/bin/env python
# coding: utf-8

import pandas as pd
import numpy as np
import matplotlib.pyplot as plt
import math
import matplotlib



class GrayForecast():
    # 初始化
    def __init__(self, data):
        self.data = data    # 以列表的形式传入待预测数据
        self.forecast_list = self.data.copy()   # 把待预测数据复制一份

 
   # 数据级比校验
    def level_check(self): 
        n = len(self.data)
        lambda_k = np.zeros(n-1)
        # 计算序列的级比
        for i in range(n-1):
            lambda_k[i] = self.data[i]/self.data[i+1]
            if lambda_k[i] < np.exp(-2/(n+1)) or lambda_k[i] > np.exp(2/(n+2)):
                flag = False
            else:
                flag = True

        self.lambda_k = lambda_k
        if not flag:
            print("级比校验失败,请对X(0)做平移变换!!")
            return False
        else:
            print("级比校验成功,继续执行!!")
            return True
 

    # GM(1,1)建模
    def GM_11_model(self, data_to_use=10):
    # data_to_use是指你要用多少数据去预测下一个数据,这里用10个
        if data_to_use > len(self.data):
            raise Exception('您的数据行不够')
        # 把待预测数据中要用于预测下一个数据的数据取出来
        X_0 = np.array(self.forecast_list[len(self.forecast_list)-data_to_use:len(self.forecast_list)])
        
        # 1-AGO 获得一次累加值
        X_1 = np.zeros(X_0.shape)
        for i in range(X_0.shape[0]):
            X_1[i] = np.sum(X_0[0:i+1])
            
        # 紧邻均值生成序列
        Z_1 = np.zeros(X_1.shape[0]-1)
        for i in range(1, X_1.shape[0]):
            Z_1[i-1] = -0.5*(X_1[i]+X_1[i-1])
        
        # 计算a,b
        B = np.append(np.array(np.mat(Z_1).T), np.ones(Z_1.shape).reshape((Z_1.shape[0], 1)), axis=1)
        Yn = X_0[1:].reshape((X_0[1:].shape[0], 1))

        B = np.mat(B)
        a_ = (B.T*B)**-1 * B.T * Yn
        a, b = np.array(a_.T)[0]
        X_ = np.zeros(X_0.shape[0])
        def f(k):
            x1_pre = (X_0[0]-b/a) * np.exp(-a*(k)) + b/a
            x0_pre = (X_0[0]-b/a)*(1-np.exp(a))*np.exp(-a*(k))
            return x0_pre
            
        # 调用函数f进行预测
        # 先对原始数据进行
        self.forecast_list.append(round(f(X_.shape[0]), 2))  


    # 调用模型进行预测
    def forecast(self, time):  # time是指你要预测几次,即预测几个值
        for i in range(time):
            self.GM_11_model()
        return self.forecast_list


    # 得到原始数据的预测数据(即拟合数据)
    def fit(self, data_all_len, data_to_use=10):  
        if data_to_use > len(self.data):
            raise Exception('您的数据行不够')
        X_0 = np.array(self.forecast_list[len(self.forecast_list) - data_to_use:len(self.forecast_list)])
        X_1 = np.zeros(X_0.shape)
        for i in range(X_0.shape[0]):
            X_1[i] = np.sum(X_0[0:i + 1])

        Z_1 = np.zeros(X_1.shape[0] - 1)
        for i in range(1, X_1.shape[0]):
            Z_1[i - 1] = -0.5 * (X_1[i] + X_1[i - 1])

        B = np.append(np.array(np.mat(Z_1).T), np.ones(Z_1.shape).reshape((Z_1.shape[0], 1)), axis=1)
        Yn = X_0[1:].reshape((X_0[1:].shape[0], 1))

        B = np.mat(B)
        a_ = (B.T * B) ** -1 * B.T * Yn
        a, b = np.array(a_.T)[0]
        X_ = np.zeros(X_0.shape[0])
        fit_list = [self.data[0]]
        def f(k):
            x1_pre = (X_0[0] - b / a) * np.exp(-a * (k)) + b / a
            x0_pre = (X_0[0] - b / a) * (1 - np.exp(a)) * np.exp(-a * (k))
            return x0_pre
            
        # 根据原始数据的长度,对原始数据进行预测
        # 因为原理解释时,序列下标从1开始,但是算法下标是从0开始的,所以算法这边和原理是有一点不一样的
        for g in range(0, data_all_len-1):   # 1,2,...,n-1
            fit_list.append(round(f(g),2))  
        return fit_list

类写好后,就可以调用了!这里我用一次数学建模的数据为例,数据描述的是小龙虾的数量:

在这里插入图片描述

longxia = [3.8, 3.93, 3.96, 4.03, 4.11, 4.14, 4.17, 4.18, 4.27, 4.4, 4.59, 4.84, 4.99, 5.08, 5.18, 5.31, 5.4, 5.47, 5.54, 5.61]
if __name__=='__main__':
    data_len = len(longxia)
    gf = GrayForecast(longxia)
    # 先级比校验
    gf.level_check()
    # 预测后10年的小龙虾数量
    forecast_data = gf.forecast(10)
    
    # 将残差转换为字符串
    res_list_str = []
    # 用于存放每对相应的值计算出来的残差
    res_list = []
    # 得到20个原始值的拟合值
    fit_data = gf.fit(20)
    
    # 计算相对残差
    for h in range(1, data_len): 
        res = round(abs((forecast_data[h] - fit_data[h]) / forecast_data[h]),4)
        res_list.append(res)
        res_str = str(round(abs((forecast_data[h] - fit_data[h]) / forecast_data[h]),4)*100) + '%'
        res_list_str.append(res_str)
        
    # 平均相对残差
    res_sum = 0
    for index in range(data_len-1):
        res_sum += res_list[index]
    res_aver = res_sum / (data_len - 1)
    
    print('原始值+预测值为:', forecast_data)
    print('拟合值为:',fit_data)
    print('相对残差为:',res_list_str)
    print('平均相对残差为:', (str(round(res_aver,4) * 100)+'%'))
    # 日期
    date = [i for i in range(1,data_len+1)]

        date = [i for i in range(1,data_len+1)]
    date_ = [k for k in range(data_len, len(forecast_data)+1)]

    # 作图
    plt.figure()
    plt.plot(date,fit_data, label='拟合值',color='#019529', marker="d")
    plt.plot(date, forecast_data[0:data_len],color="#cea2fd", label='实际值',marker='*')
    plt.plot(date_, forecast_data[data_len-1:len(forecast_data)],color="#0bf9ea", label='预测值',marker='X')
    plt.rcParams['font.sans-serif'] = ['SimHei']  # 用来正常显示中文标签
    plt.rcParams['axes.unicode_minus'] = False  # 用来正常显示负号
    plt.title('小龙虾数量预测图')
    plt.legend()  # 显示图例fontsize=20
    plt.show()
    plt.savefig(r'C:\Users\Yunger_Blue\Desktop\小龙虾')

结果为:

级比校验成功,继续执行!!
实际值为: [3.8, 3.93, 3.96, 4.03, 4.11, 4.14, 4.17, 4.18, 4.27, 4.4, 4.59, 4.84, 4.99, 5.08, 5.18, 5.31, 5.4, 5.47, 5.54, 5.61, 5.91, 6.06, 6.19, 6.32, 6.44, 6.57, 6.71, 6.87, 7.03, 7.2]
预测值为: [3.8, 3.72, 3.8, 3.89, 3.98, 4.07, 4.16, 4.26, 4.35, 4.45, 4.55, 4.66, 4.76, 4.87, 4.99, 5.1, 5.22, 5.33, 5.46, 5.58]
相对残差为: ['5.34%', '4.04%', '3.47%', '3.16%', '1.69%', '0.24%', '1.91%', '1.87%', '1.1400000000000001%', '0.8699999999999999%', '3.7199999999999998%', '4.61%', '4.130000000000001%', '3.6700000000000004%', '3.95%', '3.3300000000000005%', '2.56%', '1.44%', '0.53%']

结果图为:
在这里插入图片描述

  • 5
    点赞
  • 34
    收藏
    觉得还不错? 一键收藏
  • 5
    评论

“相关推荐”对你有帮助么?

  • 非常没帮助
  • 没帮助
  • 一般
  • 有帮助
  • 非常有帮助
提交
评论 5
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值