论文笔记:Self-Supervised Contrastive Pre-Training For Time Series via Time-Frequency Consistency

2022 Neurips

1 intro

  • 无监督与训练在NLP和CV领域的应用越来越多
    • 他们大多基于合适的,在所有数据上都一致的先验假设
    • 例如在NLP中,一个先验假设是不管是什么领域的文本,或者什么语种的文本,都遵循相同的语法规律
  • 在时间序列中,之前并没有找到一个在不同数据集上都一致的先验假设
    • ——>本文找到了一种不论在什么样的时间序列数据集中都存在的规律,那就是一个时间序列的频域表示和时域表示应该相似

    • ——>提出了Time-Frequency Consistency (TF-C)的核心架构,以对比学习为基础,让时域和频域的序列表示尽可能接近

2 方法

  • 利用多种时间序列数据增强手段,生成每个时间序列的不同增强版本
    • 在时域上,使用的数据增强手段包括jittering、scaling、time-shifts、neighborhood segments等时间序列对比学习中的经典操作
    • 在频域上,本文是首次研究了如何进行频域中的时间序列数据增强 
      • 通过随机抹除或增加frequency components实现频域上的数据增强
      • 为了避免频域上的增强对原始序列过大的变化,导致增强后的序列和原始序列不相似,会对增删的components和增删幅度做限制
        • 删除操作——会随机选择不超过E个频率进行删除
        • 增加操作——会选择那些振幅小于一定阈值的频率,并提升其振幅
  • 将时间序列输入到Time Encoder和Frequency Encoder,分别得到时间序列在时域和频域的表示
  • 训练的损失函数由三部分组成:
    • 时域对比学习loss
    • 频域对比学习loss
    • 时域和频域的表式对齐loss 
      • 前面两个loss只是分别在时域和频域内利用对比学习拉近表示,还没有引入时域和频域表示的对齐
      • 为了实现时域和频域的一致性,本文设计了一种一致性loss拉近同一个样本在时域和频域的表示
        • 借鉴了triplet loss的思想
          • 不带波浪线的T/F:原始时间序列时域表征&原始时间序列频域表征
          • 带波浪线的T/F:增强时间序列时域表征&原始时间序列频域表征
        • ——>这个loss的目的是:原始时间序列时域&频域表征的距离,小于时域&频域任何一个/两个增强之后表征的距离

3 实验

3.1 one-to-one pretraining

  • one-to-one——在一个数据集上使用不同的方法预训练,对比在另一个数据集上finetune后的效果

3.2 one-to-many pretraining

  • One-to-many——在一个数据集上预训练,在多个数据集上finetune的效果

3.3 是否加入一致性

  • 可视化了是否加入一致性loss对时域、频域表示学习的影响
    • 不加一致性loss,时域和频域表示被学成两个簇,同一个样本两个表示距离比较远。
    • 而引入一致性loss后,拉近了同一个样本时域和频域的表示

  • 3
    点赞
  • 10
    收藏
    觉得还不错? 一键收藏
  • 打赏
    打赏
  • 0
    评论

“相关推荐”对你有帮助么?

  • 非常没帮助
  • 没帮助
  • 一般
  • 有帮助
  • 非常有帮助
提交
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包

打赏作者

UQI-LIUWJ

你的鼓励将是我创作的最大动力

¥1 ¥2 ¥4 ¥6 ¥10 ¥20
扫码支付:¥1
获取中
扫码支付

您的余额不足,请更换扫码支付或充值

打赏作者

实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值