本文是对《Balanced Distribution Adaptation for Transfer Learning》进行学习。
问题引入
回顾之前的JDA,其目标函数是:
m i n A ∑ c = 0 C t r ( A T X M c X T A ) + λ ∥ A ∥ F 2 min_{A}\sum_{c=0}^{C}tr(A^{T}XM_{c}X^{T}A)+\lambda \begin{Vmatrix} A \end{Vmatrix}_{F}^{2} minA∑c=0Ctr(ATXMcXTA)+λ∥∥A∥∥F2
s . t . A T K H K T A = I s.t.A^{T}KHK^{T}A=I s.t.ATKHKTA=I
其中c=0表示的是边缘分布,c=1,…,C表示的各类别的条件分布,可以看出边缘分布和条件分布是被同等对待的,这会导致实际应用中表现较差。当数据集不相似时,减小边缘分布差异更为重要;当数据集相似时,减小条件分布更值得注意。针对这个问题,论文提出了BDA,对两者之间进行了权衡,可以很好地应用到一些特定的迁移学习任务中。
另外现存的方法都假设数据集是平衡的,这也算法限制了在不平衡数据集上的任务的表现,Weighted Balanced Distribution
Adaptation(W-BDA)则用于处理迁移学习中的类别不平衡问题,在每个类别上加入了权重。
BDA
学习过JDA后可以很容易的推出BDA的形式,我们在边缘分布和条件分布之间引入权衡因数 μ \mu μ,那么上述目标函数可以表示为:
m i n A t r ( A T X ( ( 1 − μ ) M 0 + μ ∑ c = 1 C M c ) X T A ) + λ ∥ A ∥ F 2 min_{A}tr(A^{T}X((1-\mu)M_{0}+\mu\sum_{c=1}^{C}M_{c})X^{T}A)+\lambda \begin{Vmatrix} A \end{Vmatrix}_{F}^{2} minAtr(ATX((1−μ)M0+μ∑c=1CMc)XTA)+λ∥∥