论文
文章平均质量分 91
小葵向前冲
这个作者很懒,什么都没留下…
展开
-
论文笔记---Adversarial Learning for Robust Deep Clustering
Adversarial Learning for Robust Deep Clusteringintroduction背景和准备方法introduction以前的工作:K-means ------- 谱聚类 ------- 子空间聚类K-means: 相似度度量对于高纬样本不准确谱聚类: 核函数很难确定子空间聚类:依赖线性子空间假设构建亲和矩阵,但数据在很多情况下并不自然地符合线性模型。深度聚类:将embedding和聚类作为一个单一的过程来获得最优嵌入(或表示)空间的聚类。现有的大原创 2021-06-22 16:33:24 · 862 阅读 · 0 评论 -
论文笔记---A Deep Nonnegative Matrix Factorization Approach via Autoencoder for Nonlinear Fault Detectio
DNFM1. introductionNMFDNMF2.PreliminariesNMF 算法1. introductionDNFM = Encoder + NFM + DecoderNMF目的:通过局部系统特性的非负组合来获得系统的整体特性缺点:作为一种线性模型,很难应用于非线性中;限制:输入必须是非负,一些数据是非负的,比如温度…非负非线性的NMF是主要需要解决的DNMFDNMF利用深度学习(Autodecoder)来改进NMF等,从而提供一种新的非线性框架,能够更好的解决非原创 2021-06-11 15:23:03 · 1014 阅读 · 0 评论 -
论文笔记---ClusterGAN: Latent Space Clustering in Generative Adversarial Networks
ClusterGAN前提知识AbstractMethod采样反向传播线性生成聚类损失函数experimentsConclusion前提知识Abstract简单来说,本论文研究基于GAN的无监督分类问题,GAN的潜变量保留数据信息,但是数据的分布往往是平滑的,比如上图©,这种情况对于无监督分类任务十分不友好,针对上述问题提出了ClusterGAN。贡献如下:利用一个混合的离散和连续潜变量(one-hot编码和正态随机变量),以创建一个非光滑几何潜空间——图1-(d)。这样做的目的就是既保证良好的类原创 2021-05-17 16:02:17 · 948 阅读 · 5 评论 -
论文笔记---Attentive Normalization for Conditional Image Generation
Attentive Normalization for Conditional Image Generation前提知识SAGANIN( instance normalization)实例标准化摘要介绍方法实验结果总结前提知识SAGANIN( instance normalization)实例标准化关于BN的理解参考BN 和 IN 其实本质上是同一个东西,只是 IN 是作用于单张图片(对单个图片的所有像素求均值和标准差),但是 BN 作用于一个 batch(对一个batch里所有的图片的所有像素原创 2021-05-12 10:58:23 · 1418 阅读 · 0 评论 -
论文笔记 CReST:A Class-Rebalancing Self-Training Framework for Imbalanced Semi-Supervised Learning
CReST基础知识不平衡数据不平衡数据学习的方法基础知识不平衡数据什么是不平衡数据:我们的数据集样本类别极不均衡,以二分类问题为例,假设我们的数据集是SSS,数据集中的多数类为SmajS_{maj}Smaj,少数类为SminS_{min}Smin,通常情况下把多数类样本的比例为100:1100:1100:1,1000:11000:11000:1,甚至是10000:110000:110000:1这种情况下为不平衡数据,不平衡数据的学习即需要在如此分布不均匀的数据集中学习到有用的信息。传统做法: 以原创 2021-05-11 10:03:14 · 953 阅读 · 6 评论 -
论文学习 Deep Adversarial Subspace Clustering
deep adversarial subspace clutering前提知识子空间聚类摘要introduction前提知识子空间聚类随着大数据时代的到来,产生了大量不一致数据、混合类型数据和部分值缺失的数据等。典型的聚类算法对这些数据集聚类时遇到难题。例如在高维稀疏数据中,簇类只存在部分属性构成的子空间中,这些数据集从全维空间来讲根本不存在簇类。一般来说,样本之间的差异往往是由若干个关键的特征所引起的,如果能恰当的找出这些重要特征,对建立合理的聚类或分类模型都将起到积极的作用。因此提出了子空间聚类。原创 2021-04-22 16:18:11 · 1539 阅读 · 3 评论 -
谱聚类详细说明
谱聚类定义介绍原理解析第一步第二步第三步第四步定义介绍聚类的直观解释是根据样本间相似度,将它们分成不同组。谱聚类的思想是将样本看作顶点,样本间的相似度看作带权的边,从而将聚类问题转为图分割问题:找到一种图分割的方法使得连接不同组的边的权重尽可能低(这意味着组间相似度要尽可能低),组内的边的权重尽可能高(这意味着组内相似度要尽可能高)。如上图中,一共有6个顶点,顶点之间的连线表示两个顶点的相似度,现在要将这图分成两半(两个类),要怎样分割(去掉哪边条)?根据谱聚类的思想,应该去掉的边是用虚线表示的那条原创 2021-04-22 18:44:39 · 700 阅读 · 0 评论 -
了解聚类是什么。聚类方法:k-means、核聚类、层次聚类、谱聚类
聚类1.什么是聚类2.聚类方法2.1 划分式聚类方法k-meansk-means++bi-kmeans基于密度的方法DBSCANOPTICS算法层次化聚类算法参考文档:参考1.什么是聚类定义聚类(Clustering) 是按照某个特定标准(如距离)把一个数据集分割成不同的类或簇,使得同一个簇内的数据对象的相似性尽可能大,同时不在同一个簇中的数据对象的差异性也尽可能地大。也即聚类后同一类的数据尽可能聚集到一起,不同类数据尽量分离。聚类和分类聚类(Clustering):是指把相似的数据划分到一起原创 2021-04-21 21:15:50 · 15148 阅读 · 2 评论 -
论文笔记------Neural Collaborative Subspace Clustering(神经协作子空间聚类)
摘要the Neural Collaborative Subspace Clustering(神经协作子空间聚类):一个神经模型,该模型发现从低维子空间的并集得出的数据点的簇;这使我们的算法成为可以优雅地扩展到大型数据集的算法之一。从本质上讲,我们的神经模型受益于分类器,该分类器确定一对点是否位于同一子空间上。对于我们的模型来说,关键是构造两个亲和矩阵,一个来自分类器,另一个来自子空间自我表达的概念,以监督协作方案中的训练。1.介绍在本文中,我们解决了子空间聚类问题,目标是以无监督的方式对从低原创 2021-03-04 21:01:56 · 1212 阅读 · 1 评论 -
论文笔记——Generative Adversarial Nets生成对抗网络
Abstract1 Introduction2 Related work3 Adversarial nets4 Theoretical Results5 Experiments6 Advantages and disadvantages7 Conclusions and future work原创 2021-01-20 15:36:32 · 424 阅读 · 0 评论 -
论文笔记——Cost-Efficient Super-Resolution Hardware(论文)
我们提出了一种新的**硬件友好的超分辨率**(SR)算法,该算法采用计算简单的**特征提取和回归方法**,即**局部二值模式(LBP)和线性映射** 。 该方法对基于LBP特征的不同纹理类型的低分辨率(LR)图像块进行预行道专用线性映射核。在推理操作上,通过将LR图像补丁与线性映射内核相乘来重构高分辨率(HR)图像补丁,这是由相应LR补丁块的LBP特征类推断的 。由于LBP是用于局部纹理分类的高效特征提取运算符,因此我们的方法极其快速且高效,同时与基于最新的基于机器学习的SR技术相比,显示出具有竞争力的重原创 2020-11-04 16:11:35 · 739 阅读 · 0 评论