机器学习时间序列之KLMS,KRLS, QKLMS和MCC

手稿均来自Principe大佬, 硕士上过他的机器时间序列。大佬对kernel空间的LMS很有研究。

附上老师的首页
在这里插入图片描述

RKHS 希尔伯特核再生空间

Reproducing Kernel Hilbert Spaces

  1. 希尔伯特空间是一个完备的内积空间
    在这里插入图片描述
  2. 线性泛函希尔伯特空间映射实数集,并且此泛函是连续,有界的, 此时就变成了RKHS
    在这里插入图片描述

KLMS

  1. 线性LMS的缺点,速度受到特征值( λ m i n \lambda_{min} λmin)的控制
    在这里插入图片描述
  2. 神经网络和核函数滤波对比,核方法会模型会变大,但是满足凸优化,不需要正则化(KLMS)

在这里插入图片描述
3.核方法
在这里插入图片描述
4. KLMS: w是不能直接算出来的,只能直接得到预测的函数f。衡量每次当前的数据点,与过去的点的误差*核函数之和。
在这里插入图片描述

KRLS

  1. RLS:利用了二阶导,逆矩阵定理,更新每次的自相关矩阵
  2. Kernel化
    在这里插入图片描述
    在这里插入图片描述

QKLMS

  1. 之前每进来一个点,都要作为中心,用来衡量计算。这样网络大小会累加到很大!计算变多
  2. 因此,我们要减少作为中心的点的数目。
    在这里插入图片描述
  3. 然后如果进来一个数据点,它和之前的点很接近,我们不把它加入到=={Center}==集合里,只更新对应center的误差!
  4. 这样,网络大小变小了
    在这里插入图片描述

MCC

在这里插入图片描述

  1. 基础: KL散度 = 交叉熵+熵
    在这里插入图片描述
  2. 相关熵
    在这里插入图片描述
    在这里插入图片描述
  3. 最小化高斯函数的代价 == 最大化误差的相关熵
    在这里插入图片描述
  • 1
    点赞
  • 16
    收藏
    觉得还不错? 一键收藏
  • 打赏
    打赏
  • 2
    评论

“相关推荐”对你有帮助么?

  • 非常没帮助
  • 没帮助
  • 一般
  • 有帮助
  • 非常有帮助
提交
评论 2
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包

打赏作者

万物琴弦光锥之外

给个0.1,恭喜老板发财

¥1 ¥2 ¥4 ¥6 ¥10 ¥20
扫码支付:¥1
获取中
扫码支付

您的余额不足,请更换扫码支付或充值

打赏作者

实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值