时间序列迁移学习论文阅读笔记

本文探讨了如何利用DTW选择相似数据集进行深度CNN的迁移学习,以提升时间序列分类(TSC)的效果。作者通过预训练和微调步骤,在85个数据集中有71个表现出性能提升。关键在于使用全局平均池化层,它不仅减少参数,防止过拟合,还在模型迁移时避免了输入序列的缩放需求。
摘要由CSDN通过智能技术生成

Transfer learning for time series classification

https://arxiv.org/pdf/1811.01533.pdf

1. 作者的目标是什么?或者已经实现了什么?

  • 目标:对于时间序列分类(Time Series Classification, TSC)问题,如何迁移深度CNN模型。
  • 作者实现的内容:基于DTW(Dynamic Time Warping)方法选择与给定目标数据集最相似的源数据集,改善TSC迁移学习的效果。
  • 本文TSC迁移学习方法:(1)在非目标数据集上进行预训练(pre-trained)(2)然后在目标数据集上进行微调(fine-tuned)

2. 新方法的关键是什么?

  • 对目标数据集 D t D_t Dt来说,和自身最相似的源数据集 D s D_s Ds
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值