自定义博客皮肤VIP专享

*博客头图:

格式为PNG、JPG,宽度*高度大于1920*100像素,不超过2MB,主视觉建议放在右侧,请参照线上博客头图

请上传大于1920*100像素的图片!

博客底图:

图片格式为PNG、JPG,不超过1MB,可上下左右平铺至整个背景

栏目图:

图片格式为PNG、JPG,图片宽度*高度为300*38像素,不超过0.5MB

主标题颜色:

RGB颜色,例如:#AFAFAF

Hover:

RGB颜色,例如:#AFAFAF

副标题颜色:

RGB颜色,例如:#AFAFAF

自定义博客皮肤

-+
  • 博客(7)
  • 资源 (3)
  • 收藏
  • 关注

原创 One2Multi Graph Autoencoder for Multi-view Graph Clustering(有代码)

One2Multi Graph Autoencoder for Multi-view Graph Clustering简要概括摘要(翻译过来的,建议看英文)接下来就简单说了,直接上图损失代码链接和论文结果总结简要概括这篇文章是针对多视图图聚类,大部分较为传统,但是也有自己创新的想法在里面,下面简要记录一下,方便以后回来看。摘要(翻译过来的,建议看英文)多视图图聚类是一种对具有多个视图的图进行划分的方法,这些视图往往提供更全面但更复杂的信息,近年来受到了广泛的关注。虽然在多视图图聚类方面已经做了一些努

2021-01-25 13:19:06 1339

原创 Matlab把稀疏矩阵表示转换为稀疏矩阵

Matlab把稀疏矩阵表示转换为稀疏矩阵新的改变功能快捷键合理的创建标题,有助于目录的生成如何改变文本的样式插入链接与图片如何插入一段漂亮的代码片生成一个适合你的列表创建一个表格设定内容居中、居左、居右SmartyPants创建一个自定义列表如何创建一个注脚注释也是必不可少的KaTeX数学公式新的甘特图功能,丰富你的文章UML 图表FLowchart流程图导出与导入导出导入##问题描述我现在有一个图数据集,也就是wiki数据集,wiki数据集但是作者给的是一个系数矩阵表示,但是我想要用到的并不是稀疏

2020-11-05 19:56:41 1561

原创 VGG中2个3*3卷积核对AlexNet中5*5卷积核以及感受野计算公式

看网上写了一些,都不太清楚,自己看了一个视频上讲的这个,才终于搞清楚。所以写给大家分享一下。首先介绍下感受野的概念,我看一些介绍也不是太清楚。所以这里说一下定义:感受野就是卷积神经网络的每一层的一个像素点对应于原始输入图像上区域的大小。比如这个图,这个conv1是33的卷积核,conv1的左上角的第一个像素点,对应的就是原始图像上红框所代表的33的区域大小,所以它的感受野就是3(一般都说3...

2019-11-18 21:00:31 3140 1

原创 2019-ICCV最佳论文解读-SinGAN: Learning a Generative Model from a Single Natural Image

2019-ICCV最佳论文-SinGAN: Learning a Generative Model from a Single Natural Image作者: Tamar Rott Shaham Tali Dekel Tomer Michaeli一句话概括论文:作者用了一个称之为金字塔的网络模型来对单张图片操作,可以实现随机生成类似图片、提高分辨率、画图转换为图片等功能。(为了方便你们...

2019-11-02 17:29:53 1966 1

原创 Multi-view Deep Network for Cross-view Classification

Multi-view Deep Network for Cross-view ClassificationCVPR 2016 IEEE Conference on Computer Vision and Pattern RecognitionMeina Kan1,2 Shiguang Shan1,2 Xilin Chen11Key Laboratory of Intelligent I...

2019-10-30 20:34:47 1316 3

原创 Deep Multimodal Subspace Clustering Networks

Deep Multimodal Subspace Clustering Networks作者:Mahdi Abavisani , Student Member, IEEE, and Vishal M. Patel , Senior Member, IEEE IEEE JOURNAL OF SELECTED TOPICS IN SIGNAL PROCESSING, VOL. 12, NO...

2019-10-26 10:27:59 1020

原创 关于AE2-Nets: Autoencoder in Autoencoder Network 的一点理解

关于AE2-Nets: Autoencoder in Autoencoder Network 的一点理解初衷:普通学生,想着平时看了论文之后可以在博客上记一些笔记,并不是技术分享,所以写的可能不一定对,所以有写得不好的,还请各位大牛指正。谢谢!一句话概括:本文其实就是把来自异构视图的内在信息编码为一个全面的表示,并且自动的平衡不同视图的互补性和一致性背景AE2-Nets介绍拓展初衷:普通学生,想...

2019-10-20 10:59:00 2868 5

2019-ICCVlearning a Generative Model from a Single Natural Image(原文+代码)

我们介绍了SinGAN,一个可以从单一自然图像中学习的无条件生成模型。我们的模型经过训练,能够捕捉图像内部patch的分布,然后能够生成与图像具有相同视觉内容的高质量、多样化的样本。SinGAN包含一个完全卷积的GANs金字塔,每个GANs负责学习图像中不同尺度上的patch分布。这允许生成具有显著可变性的任意大小和高宽比的新样本,同时保持训练图像的整体结构和精细纹理。与以往的单一图像GAN方案相比,我们的方法不仅限于纹理图像,而且没有条件(即从噪声中生成样本)。用户研究证实,生成的样本通常被混淆为真实的即时消息。我们说明了SinGAN在图像处理任务中的广泛应用。 ———————————————— 版权声明:本文为CSDN博主「Asure_AI」的原创文章,遵循 CC 4.0 BY-SA 版权协议,转载请附上原文出处链接及本声明。 原文链接:https://blog.csdn.net/Asure_AI/article/details/102869213

2019-11-02

2016-26cvpr.pdf

跨视图识别是计算机视觉中的一个重要问题,它主要是对不同视图之间的样本进行分类。不同的视图之间的巨大差异使得这个问题相当具有挑战性。为了消除复杂的(甚至是高度非线性的)视点差异以获得良好的跨视点识别,我们提出了一个多视点深度网络(multi-view deep network, MvDN),该网络寻求多个视点之间共享的非线性鉴别和视点不变表示。具体来说,我们提出的MvDN网络由两个子网络组成,视图特定的子网络试图消除视图特定的变化,下面的公共子网络试图获得所有视图共享的公共表示。作为MvDN网络的目标,从所有视图的样本中计算Fisher损失,即瑞利商目标,以指导整个网络的学习。因此,来自MvDN网络顶层的表示法对差异具有鲁棒性,并且具有区分性。分别在13和2个视图的3个数据集上进行的跨姿态和跨特征类型的人脸识别实验表明了该方法的优越性,特别是与典型的线性方法相比

2019-10-30

Deep Multimodal Subspace Clustering Networks.pdf

博客锁对应的文档,需要的可以下载。 Abstract 提出了一种基于卷积神经网络的无监督多模态子空间聚类算法。该框架主要由三部分组成:多模态编码器、自表达层和多模态解码器。编码器以多模态数据为输入,将其融合到一个潜在的空间表示中。自表达层负责增强自表达性并获得与数据点对应的亲和矩阵。解码器重建原始输入数据。该网络利用译码器的重构与原始输入之间的距离进行训练。我们研究了早期、晚期和中期的融合技术,并提出了三种不同的用于空间融合的编码器。对于不同的空间融合方法,自表达层和多模态解码器本质上是相同的。除了各种空间融合方法外,还提出了一种基于亲和融合的网络,该网络中不同模式对应的自表达层是相同的。在三个数据集上的大量实验表明,所提出的方法明显优于目前最先进的多模态子空间聚类方法。

2019-10-26

空空如也

TA创建的收藏夹 TA关注的收藏夹

TA关注的人

提示
确定要删除当前文章?
取消 删除