张量
文章平均质量分 92
瑶琴遇知音
我是一名萌萌哒程序员
展开
-
张量(五):张量学习——BGCP
接下来的文章将主要介绍张量在交通领域的实际应用,包括预测、补全等问题。与其他模型相结合,针对具体问题,构建的一系列模型,我这里统称为“张量学习模型”。本文主要介绍Bayesian Gaussian CANDECOMP/PARAFAC tensor decomposition model(BGCP)。1 背景随着智能交通系统的发展和应用,大量城市交通数据通过各种来源如环路检测器、摄像机等被捕获,这些数据可用于交通运营和管理应用,包括路由、信号控制、出行时间预测等。通常,我们可以将时空交通数据组织成一个原创 2020-11-02 15:38:05 · 3600 阅读 · 0 评论 -
张量(四):张量补全(tensor completion)
现实情况下,往往由于采集数据工具(如采集交通数据的传感器)的故障以及其他异常情况导致数据中往往存在部分缺失值,对这些缺失值的修补称之为“补全”,张量领域的缺失值修复即张量补全。张量补全是根据已有数据对缺失值的影响和低秩假设实现缺失值补全,主要分为两类方法:一种是基于张量补全中给定的秩和更新因子 一种是直接最小化张量秩并更新低秩张量...原创 2020-10-08 16:29:49 · 11510 阅读 · 11 评论 -
张量(三):张量鲁棒主成分分析(TRPCA)
基于张量分解,张量鲁棒主成分分析法(TRPCA)是对鲁棒主成分分析(RPCA)的高阶扩展,在数据去噪等领域拥有广泛应用。本篇将对TRPCA以及其最新的改进模型做出介绍。一、RPCA在实际应用中,很多数据矩阵往往是低秩或近似低秩的。理想状态下,数据矩阵的行与行之间应当具有极强的相似性,整个矩阵应当是低秩的。但由于数据噪声的存在,破坏了这种低秩性。因此,为了恢复矩阵的低秩结构,可将矩阵D分解为两个矩阵之和,即低秩矩阵A和稀疏矩阵E,D=A+E。低秩矩阵为分离了噪声的真实矩阵,稀疏矩阵为分离出的噪声矩阵。原创 2020-10-07 22:12:20 · 7574 阅读 · 6 评论 -
张量(二):张量分解(tensor decomposition)
与矩阵分解一样,我们希望通过张量分解去提取原数据中所隐藏的信息或主要成分。当前主流的张量分解方法有CP分解,Tucker分解,t-SVD分解等,更新的方法大多是在他们的基础上做进一步的改进或引用。因此,张量分解也是张量算法的基础。下面分别做介绍。一、CP分解CP分解是将任意高阶张量分解成多个秩为1的“因子张量”之和。如下图,每个因子张量的单个维度上秩都为1。若一个三维张量的数据为,则其CP分解表达式为,其中R为张量秩的大小,向量之间的乘积是外积的形式。虽然CP分解的表达式很简洁,但对其秩的求解却是一原创 2020-10-06 16:23:31 · 16908 阅读 · 3 评论 -
张量(一):张量基础
从今天开始,笔者将会持续更新关于张量的相关知识和最新研究成果。我们这里所说的张量知识主要是关于张量低秩分解,张量补全等算法和应用。在如今神经网络大火的年代,张量补全等算法无疑为预测、去噪等问题提供了新的解决方法和思路。接下来,且听我娓娓道来。友情提醒:默认读者拥有线性代数的基础。一、何为张量?在本科阶段,我们接触到最多的数据结构就是矩阵与向量。一维的向量与二维的矩阵分别能表示数据的一种与两种信息。然而,现实世界里大多数数据都具有多重属性,例如一个人就有姓名、年龄、性别、民族等多种信息,因此单纯的原创 2020-10-05 22:22:52 · 7413 阅读 · 1 评论