不太相关,随便看看
Barlow Twins: Self-Supervised Learning via Redundancy Reduction
基本思想
上下两个独立的网络。相同的输入,但是输入
X
A
X_A
XA,
X
B
X_B
XB用不同的增强方式。按道理讲,这两个输出应该相同,所以它们的embedding
Z
A
Z_A
ZA,
Z
B
Z_B
ZB应该一样。就求这两个embedding的自相关矩阵。
损失函数定义为:
L
B
T
=
∑
i
(
1
−
C
i
i
)
2
+
λ
∑
i
∑
j
≠
i
C
i
j
2
L_{BT} = \sum_i(1-C_{ii})^2+\lambda\sum_i \sum_{j\neq i} C_{ij}^2
LBT=i∑(1−Cii)2+λi∑j=i∑Cij2
第一项表示不变的东西,第二项表示冗余的特征。
差不多就这些了