时间序列预测模型对比——视频笔记

Autoformer
他的特点是加入了自动相关,代替原来的自注意力机制,因为作者认为数据不能简单由数值来判断,而应该根据趋势来判断。
他与Dlinear一样,都是用到了decomposition,这个拆分(快速傅里叶变换FFT)基于 STL(季节性,趋势性),数据=趋势性数据+季节性数据(周期)+余项imgpng

auto-correlation代替注意力,series-decomp用来把原始数据分解成季节(频繁小震荡)和趋势(大趋势)

img1png 

编码器是原始输入
解码器是拆分后的季节性和趋势性

auto-correlation利用随机过程的马尔可夫过程,以涛为时间窗口,计算分解后的两个周期对应那两小段的相关性,是个标量(最后加个softmax保证计算出的多个标量和是1),多个计算的标量连起来就是个趋势,这个自己找的趋势和上个图的 trend-cyclical init原始分解出的趋势加起来。解码器出来时季节和趋势又加回去

img2png

结论:他对季节性周期性强的数据,预测效果最好,比如车流(有早晚高峰,工作日比周末车少)

informer
目前对于减少transformer时间复杂度的方法

img7png

作者创新了个概率分散自注意力机制,使计算大小从L*d变为u*d,减少了时间复杂度

蒸馏主要靠这个最大池化。

img11png

Yformer
informer和unet结合,unet就是先卷积,再反卷积
但这个效果只比informer好了一点点

Dlinear
双线性结构。decomposition先分解原数据的趋势和季节,autoformer也用这个。
主打一个简单。
但视频作者说这种唱反调的容易被拒稿

img14png

mamba
主要是说,循环神经网络 训练慢,推理快, transformer训练快,推理慢,
mamba两个都快,训练时并行计算,推理时递归计算。
让SSM由时不变改为时变。速度快了2.8倍,内存少了86%

  • 5
    点赞
  • 8
    收藏
    觉得还不错? 一键收藏
  • 0
    评论
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值