【阅读随笔】Time-Incremental Learning from Data Using Temporal Logics

[1] E. Aasi, M. Cai, C. I. Vasile, and C. Belta, “Time-Incremental Learning from Data Using Temporal Logics.” arXiv, Dec. 28, 2021. doi: 10.48550/arXiv.2112.14300.

好久没看文献了,来更一篇

Outline

  • time-variant weights of STL

  • weights are learned by NN

  • 通过决策树方法学出一系列STL约束

  • 通过计算信号前缀相对于STL约束的加权鲁棒度来对信号前缀进行分类


Remark

  • 在每个时间点学一个wSTL来分类,有点无聊

  • 前期的决策时间点太少了吧,在第一个决策点之前都是盲猜啊


Formulation

  • 数据集:等长的带标签信号

  • 数据不是一次性获取,在收集信号的过程中给信号分类

  • 最小化每个时刻的误分类率


Details

Signal Analysis

  • 找决策时间点

  • 一种基于信号间距离度量的启发式方法

  • positive-negtive distance: 用于衡量正负样本在时间上的距离

请添加图片描述

  • 选取以上函数一阶导(极值点)和二阶导(趋势变化点)为0的时间点作为决策时间点

  • 生成决策点集合为 T = { t k } k = 1 K \mathcal{T}=\{t_k\}^K_{k=1} T={tk}k=1K

Classifier Learning

  • 在每个决策点用决策树生成分类器

  • 每个决策点的分类器用STL公式 ϕ k \phi_k ϕk表示

Classifier Evaluation

  • 计算每个STL的权值生成wSTL

  • ω ( t ) \omega(t) ω(t)是一个Kx1的列向量,每个元素是不同决策时间点的STL分类器的权值

  • 用神经网络找到每个时刻的权值分配,可见权值是一个时变的参数

  • 在t时刻,将所有的公式分为hrz<=t和hrz>t的两类

  • hrz>t的公式权值为0

  • 将不同公式的鲁棒度作为输入,label作为输出训练NN,学习hrz<=t部分公式的权值

  • 在决策点之间,权值将保持不变


Case Study

对比实验

  • all-times 每个时刻都是决策时间点

  • uniform-weights 所有公式的权值相等

  • our method

比较指标

  • runtime

  • STL分类器的数量

  • TMCR

  • 0
    点赞
  • 0
    收藏
    觉得还不错? 一键收藏
  • 0
    评论

“相关推荐”对你有帮助么?

  • 非常没帮助
  • 没帮助
  • 一般
  • 有帮助
  • 非常有帮助
提交
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值