autoencoder
文章平均质量分 87
飞花穿庭
这个作者很懒,什么都没留下…
展开
-
Variational Graph Auto-Encoders论文笔记
Variational Graph Auto-Encoders论文链接原理Inference model论文链接原理本质上也是autoencoder。文章中的Inference model部分本质上就是autoencoder的encoder部分,而Generative model部分本质上就是decoder部分。Inference model这一部分采用的是一个两层的GCN,用公式表达即:GCN(X,A)=A~ReLU(A~XW0)W1 GCN(X,A) = \tilde A ReLU (\t原创 2021-11-11 14:58:45 · 685 阅读 · 0 评论 -
Adversarially Regularized Graph Autoencoder for Graph Embedding论文笔记
Adversarially Regularized Graph Autoencoder for Graph Embedding论文链接总结网络EncoderDecoderDiscriminator原理损失论文链接总结这篇文章将GAN(生成对抗网络)加入到了GAT中,根据base-encoder的不同,提出了adversarially regularized graph autoen-coder(ARGA) 和adversarially regularized vari-ational graph原创 2021-11-11 19:59:44 · 1301 阅读 · 0 评论 -
Deep embedding network for clustering论文笔记
Deep embedding network for clustering论文笔记网络结构论文笔记网络结构原创 2021-11-28 09:39:44 · 2225 阅读 · 0 评论 -
Towards K-means-friendly Spaces: Simultaneous Deep Learning and Clustering论文笔记
Towards K-means-friendly Spaces: Simultaneous Deep Learning and Clustering论文链接零碎知识网络架构损失函数优化预训练分步训练重构损失聚类损失论文链接零碎知识因为在数据的隐层表达学习过程中没有一个明确的聚类促进目标,所以训练出来的结果可能时好时坏。网络架构整体和普通的autoencoder一样,只不过在损失函数处增加一个聚类损失。这篇文章中的decoder和encoder是完全对称的。损失函数xix_ixi是数据原创 2021-11-27 13:42:03 · 364 阅读 · 0 评论 -
Masked Autoencoders Are Scalable Vision Learners论文笔记
Masked Autoencoders Are Scalable Vision Learners论文链接网络MaskingEncoderDecoderLoss实验论文链接网络网络整体架构与普通autoencoder类似,但有一些优化。Masking首先,作者将图像的像素点划分为多个没有重合的小块(patch),然后遵从均匀分布(防止选择的小块趋向于图片中心),从这些小块中随机选择一定比例的小块,然后去除剩余的小块(mask),而被选择出的小块就是encoder的输入。Encoderencod原创 2021-11-15 15:08:22 · 3757 阅读 · 0 评论 -
Deep Clustering via Joint Convolutional Autoencoder Embedding and RelativeEntropy Minimization论文笔记
Deep Clustering via Joint Convolutional Autoencoder Embedding and RelativeEntropy Minimization论文链接总结网络架构1. Noisy Encoder2. Decoder3. Clean Encoder损失函数构成重构损失论文链接总结这篇文章提出了deep embedded regularIzed clustering (DEPICT)的方法,从网络架构上来讲是很多种trick的集成体。网络整体还是aut原创 2021-11-08 20:08:27 · 1763 阅读 · 0 评论 -
Extracting and Composing Robust Features with Denoising Autoencoders论文笔记
Extracting and Composing Robust Features with DenoisingAutoencoders论文链接零碎知识网络原理结构训练论文链接零碎知识可以通过在训练前,先用无监督的方式将输入映射到更为有意义的向量空间的方式,来减轻训练深度生成、判别模型的困难。可以通过逐层初始化的方式来获得更好的效果。网络原理好的模型学习到的应该是数据潜在的分布。而对于输入的高维向量而言,可能有些维度并没有携带信息,甚至可能携带噪音。一个维度与其它多个维度应该是相关的,原创 2021-11-07 13:30:50 · 356 阅读 · 0 评论