Advance Finance Machine Learning读书笔记
版权声明:本文为博主原创文章,遵循 CC 4.0 BY-SA版权协议,转载请附上原文出处链接和本声明。
本人失业在家,正在读刚买的Advance Finance Machine Learning(AFML),基于此书全是英文,有些知识点需要再次整理与巩固,所以写一下这个系列。
之前有搜到大神weixin_38753422的AFML系列。写得很详细并且有代码和图片解释,链接在此
此系列从Part 1 Chapter 3开始写起,Chapter3之前内容可以在上面的链接里看到。(注意并不是所有内容的整理,而是我个人觉得需要整理的内容)
本文讲的时Part 1 Chapter 5 Fractionally Differentiated Features(特征差分)
为何进行特征差分,具体怎么差分才好?
金融数据都是不平稳的,为了进行分析以及ML,必须要将数据转换成平稳的(stationary)
人们为了得到平稳的时间序列,会做一阶差分,不行就二阶。总之就是整数阶差分(Integer Differentiation)
但是这么做是错的,错在何处? 为了得到平稳性,舍弃了时间序列的Memory(历史记忆),作者认为价格之间是有记忆的。今天的价格是基于之前的价格形成的。
接下来要做的就是对数据进行平稳性转换,并且同时尽可能保存数据的Memory
公式推导前期铺垫
后移算子 B B B
时间序列 { X t } \{X_t\} { Xt}
B k X t = X t − k B^k X_t=X_{t-k} BkXt=Xt−k
例子:① B 2 X t = X t − 2 B^2X_t=X_{t-2} B2Xt=Xt−2 ,
② ( 1 − B ) 2 X t = X t − 2 X t − 1 + X t − 2 (1-B)^2X_t=X_t-2X_{t-1}+X_{t-2} (1−B)2Xt=Xt−2Xt−1+Xt−2
大家再回忆一下高中学的二项式定理
例子: ( 1 + x ) d = ∑ k = 0 ∞ ( C d k ) x k (1+x)^d=\sum_{k=0}^{\infty}(C_d^k)x^k (1+x)d=∑k=0∞(Cdk)xk