AFML读书笔记--Fractionally Differentiated Features

本文介绍了金融数据的特征差分方法,旨在保持数据的平稳性同时保留时间序列的记忆。通过差分公式推导,探讨了非整数阶差分的权重收敛性,强调了记忆损失问题。实际应用中,提出了固定窗口法以平衡平稳性和记忆保留。
摘要由CSDN通过智能技术生成

Advance Finance Machine Learning读书笔记

版权声明:本文为博主原创文章,遵循 CC 4.0 BY-SA版权协议,转载请附上原文出处链接和本声明。

本人失业在家,正在读刚买的Advance Finance Machine Learning(AFML),基于此书全是英文,有些知识点需要再次整理与巩固,所以写一下这个系列。
之前有搜到大神weixin_38753422的AFML系列。写得很详细并且有代码和图片解释,链接在此
此系列从Part 1 Chapter 3开始写起,Chapter3之前内容可以在上面的链接里看到。(注意并不是所有内容的整理,而是我个人觉得需要整理的内容)

本文讲的时Part 1 Chapter 5 Fractionally Differentiated Features(特征差分)

为何进行特征差分,具体怎么差分才好?

金融数据都是不平稳的,为了进行分析以及ML,必须要将数据转换成平稳的(stationary)
人们为了得到平稳的时间序列,会做一阶差分,不行就二阶。总之就是整数阶差分(Integer Differentiation)
但是这么做是错的,错在何处? 为了得到平稳性,舍弃了时间序列的Memory(历史记忆),作者认为价格之间是有记忆的。今天的价格是基于之前的价格形成的。

接下来要做的就是对数据进行平稳性转换,并且同时尽可能保存数据的Memory

公式推导前期铺垫

后移算子 B B B

时间序列 { X t } \{X_t\} { Xt}

B k X t = X t − k B^k X_t=X_{t-k} BkXt=Xtk
例子:① B 2 X t = X t − 2 B^2X_t=X_{t-2} B2Xt=Xt2
   ② ( 1 − B ) 2 X t = X t − 2 X t − 1 + X t − 2 (1-B)^2X_t=X_t-2X_{t-1}+X_{t-2} (1B)2Xt=Xt2Xt1+Xt2

大家再回忆一下高中学的二项式定理
例子: ( 1 + x ) d = ∑ k = 0 ∞ ( C d k ) x k (1+x)^d=\sum_{k=0}^{\infty}(C_d^k)x^k (1+x)d=k=0(Cdk)xk

下面是差分的公式推导(想不明白多想几遍)
( 1 − B ) d = ∑ k = 0 ∞ ( C d k ) ( − B ) k (1-B)^d=\sum_{k=0}^{\infty}(C_d^k)(-B)^k (1B)d=k=0(Cdk)(B)k
      = ∑ k = 0 ∞ ( ∏ i = 0 k − 1 k ! ) ( − B ) k =\sum_{k=0}^{\infty}(\frac{\prod_{i=0}^{k-1}}{k!})(-B)^k =k=0(k!i=0k1)(B)k
      = ∑ k = 0 ∞ ( − B ) k ∏ i = 0 k − 1 d − i k − i =\sum_{k=0}^{\infty}(-B)^k\prod_{i=0}^{k-1} \frac{d-i}{k-i} =k=0(B)ki=0k1kidi
      = 1 − d B + d ( d − 1 ) 2 ! B 2 + d ( d − 1 ) ( d − 2 ) 3 ! B 3 + … … =1-dB+\frac{d(d-1)}{2!}B^2+\frac{d(d-1)(d-2)}{3!}B^3 +…… =1
评论 1
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值