字典学习.特征shapelet

字典学习

是机器学习和信号处理中使用的一种技术,用于将数据表示为所学字典中基元素的线性组合。其目标是找到一个字典,该字典可以用最少的基元有效地表示数据。这种方法尤其适用于去噪、压缩和特征提取等任务。

字典学习的目标,就是提取事物最本质的特征(类似于字典当中的字或词语)。如果我们能都获取这本包括最本质的特征的字典,那我们就掌握了这个事物的最本质的内涵。换言之,字典学习将我们的到的对于物体的信息降维,减少了该物体一些无关紧要信息对我们定义这个物体的干扰。

在MATLAB中,可以使用K-SVD工具箱来实现该算法

稀疏模型

稀疏模型的作用如下:

稀疏模型将大量的冗余变量去除,只保留与响应变量最相关的解释变量,简化了模型的同时却保留了数据集中最重要的信息,有效地解决了高维数据集建模中的诸多问题——百度百科
可以发现,稀疏模型所能达到的效果与我们字典学习的目标一致。都是要将冗余的无关紧要的信息除去,将最重要的、本质的信息得以保留。也正因如此,所以“字典”的衡量标准也就产生了。字典创建的好不好,就要看它这个模型够不够稀疏。

ps:稀不稀疏,就是说你提取的特征是不是够关键,是不是够本质。

字典学习以及稀疏表示的概要

字典学习(Dictionary Learning)和稀疏表示(Sparse Representation)在学术界的正式称谓应该是稀疏字典学习(Sparse Dictionary Learning)。
该算法理论包含两个阶段:字典构建阶段(Dictionary Generate)和利用字典(稀疏的)表示样本阶段(Sparse coding with a precomputed dictionary)。这两个阶段(如下图)的每个阶段都有许多不同算法可供选择,每种算法的诞生时间都不一样,以至于稀疏字典学习的理论提出者已变得不可考。笔者尝试找了Wikipedia和Google Scolar都无法找到这一系列理论的最早发起人。

为什么需要字典学习?

无论人类的知识有多么浩繁,也无论人类的科技有多么发达,一本长不过20厘米,宽不过15厘米,厚不过4厘米的新华字典或牛津字典足以表达人类从古至今乃至未来的所有知识,那些知识只不过是字典中字的排列组合罢了!
它实质上是对于庞大数据集的一种降维表示。
题外话:现代神经科学表明,哺乳动物大脑的初级视觉皮层干就事情就是图像的字典表示。

2.2、我们为什么需要稀疏表示?
“字典”涉及初级视觉皮层,而“稀疏”涉及前额叶皮层。但是在计算机中,“字典”和“稀疏”却是一堆孪生兄弟。在学习样本字典之初的时候,稀疏条件就已经被加入了。我们希望字典里的字可以尽能的少,但是却可以尽可能的表示最多的句子。这样的字典最容易满足稀疏条件

参考文献
1.『ML笔记』深入浅出字典学习
2.字典学习(KSVD)详解
3.https://blog.csdn.net/hjimce/article/details/50810129

shapelet

时间序列shapelet概述
时间序列形状特征综述
【时间序列】Shapelet 分类

评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值