张量
文章平均质量分 68
alicecv
这个作者很懒,什么都没留下…
展开
-
Low CP Rank and Tucker Rank Tensor Completion for Estimating Missing Components in Image Data论文笔记
奇异值分解:https://www.cnblogs.com/endlesscoding/p/10033527.htmlcp分解和tucker分解:https://blog.csdn.net/yixianfeng41/article/details/73009210翻译摘要张量补全可以恢复多路数据的缺失分量。现有的方法在数据补全的低秩张量优化中使用Tucker秩或CANDECOMP/PARAFAC (CP)秩。实际上,这两种张量秩代表了不同的高维数据结构。在本文中,我们提出通过在低秩张量近似下联合最小原创 2021-03-16 22:10:16 · 2651 阅读 · 0 评论 -
TTR论文python代码复现笔记
论文地址【Low-Rank Tensor Train Coefficient Array Estimation for Tensor-on-Tensor Regression】:https://ieeexplore.ieee.org/stamp/stamp.jsp?tp=&arnumber=8989951代码参考论文【Tensor-To-Vector Regression for Multi-Channel Speech Enhancement Based on Tensor-Train Ne原创 2021-01-21 16:35:02 · 569 阅读 · 6 评论 -
Compressing Recurrent Neural Network with Tensor Train论文翻译
摘要递归神经网络(RNN)是建模时间和顺序任务的热门选择,并在各种复杂问题上实现许多最新的性能。然而,大多数最先进的RNNs都有数百万个参数,并且需要大量的计算资源来训练和预测新数据。本文提出了一种基于张量列(TT)格式表示权值参数的备选RNN模型,以显著减少参数的数量。在本文中,我们实现了几种神经网络结构的tt格式表示,如简单神经网络和门控循环单元。在序列分类和序列预测任务方面,比较和评价了我们提出的RNN模型和未压缩RNN模型。我们提出的tt格式的神经网络能够在保持性能的同时,将RNN参数的数量显著减原创 2020-07-21 15:24:24 · 403 阅读 · 0 评论 -
张量分解与低秩近似
什么是张量:https://blog.csdn.net/wzy628810/article/details/106993982youtube讲解视频链接:https://www.youtube.com/watch?v=f5liqUk0ZTw[张量论文汇总](https://blog.csdn.net/sinat_38856440/article/details/104450094?ops_request_misc=%257B%2522request%255Fid%2522%253A%2522159530原创 2020-07-21 15:12:10 · 1684 阅读 · 0 评论