来源
2021 IEEE Transactions on Neural Networks and Learning Systems (IF 10.4)
模型图
Abstract
问题
对于聚类任务,模型训练后decoder是无用的,encoder-decoder的结构限制了encoder的深度,降低了模型的学习能力。
方法
提出了无解码器的VaDE无监督聚类(DFVC)
原理
最小化recon_loss即最大化input和表示之间的互信息(MI)的下界
具体方法
连续表示的MI估计值和类别表示的MI计算值,模型将原始输入,增强输入和高阶表示合并在MI估计框架中,以学习表示。
将GMM作为先验进行端到端的学习
Intro写法
无监督学习的描述
Unsupervised learning has the potential to scale up with this ever-increasing availability of data as it alleviates the need to carefully handcraft and annotates data sets.
减轻了做打标签的压力
聚类的描述
Clustering can be considered the most fundamental unsupervised learning task of discovering the inherent grouping structure, such that data points in the same group are more similar to each other and dissimilar to the data points in other groups.
inherent 内在的 固有的
深度聚类三件套的描述
Deep clustering algorithms usually consist of three essential components: deep neural network, network loss, and clustering loss
深度聚类算法的目标函数通常是表示学习损失(网络损失)和面向聚类的损失的线性组合
L
=
a
L
1
+
(
1
−
a
)
L
2
\ L = aL1+(1-a)L2
L=aL1+(1−a)L2
聚类损失的设计为了鼓励模型学习聚类友好的表示和完成数据聚类
实现
理论推导
I(x,z)为MI(互信息)
R(x|z)为期望误差
H(x)为边际熵
H(x|z)为条件熵
p为真实未知分布,为经验分布
将VAE的最大化ELBO转换成最小化问题(加了个负号)
求联合分布的KL得到与上述最大化L和一个常数
其中常数为
为最小化VAE的负ELBO即为最小化联合分布
K
L
(
q
φ
(
x
,
z
)
∣
∣
p
θ
(
x
,
z
)
)
\ KL(qφ(x, z)||pθ (x, z))
KL(qφ(x,z)∣∣pθ(x,z))
推论1:
证明1:
在中,x来自未知分布,所以参数对其没有影响,即H(x)为未知常数,得到
qΦ(x,z)可以视为最优解码器
由
得
pθ(x|z)为一个参数化分布(没看懂q是什么,也没看懂怎么来的)
得到结论:最小化重构误差对应于最大化MI I(x, z)的下界
↑这句没看懂
综上,vae的loss可以写做
没解码器的VAE
看不下去了 公式太难理解了 还长