在这篇论文中,作者提出了一种基于模型熵来对深度嵌入进行加权的方法。具体来说,作者使用训练好的分类器来对目标域中的每个样本进行分类,并计算其分类结果的熵。熵值越高表示分类结果越不确定,因此作者认为这些嵌入位于特征空间的不确定区域。
接下来,作者使用熵值作为权重对嵌入进行加权,以强调特征空间中的不确定区域。具体地,对于每个目标域样本 x t x_t xt,它的嵌入 z t z_t zt将被乘以一个权重 w t w_t wt,其中权重由以下公式给出:
w t = 1 + α H ( y t ∣ x t ) w_t = 1 + \alpha H(y_t|x_t) wt=1+αH(yt∣xt)
其中, H ( y t ∣ x t ) H(y_t|x_t) H(yt∣xt)是分类器对样本 x t x_t xt的分类结果 y t y_t yt的熵, α \alpha α是超参数,用于调节加权的影响力。当 α = 0 \alpha=0 α=0时,加权不起作用,当 α > 0 \alpha>0 α>0时,加权将更加强调分类不确定性较高的样本。
计算分类结果的熵可以通过以下步骤进行:
对于一个样本,假设它被分类到
C
C
C 个类别中的第
i
i
i 个类别的概率为
p
i
p_i
pi,则该样本的分类结果熵可以通过下面的公式计算:
H
(
x
)
=
−
∑
i
=
1
C
p
i
log
2
p
i
H(x) = -\sum_{i=1}^C p_i \log_2 p_i
H(x)=−∑i=1Cpilog2pi
其中 H ( x ) H(x) H(x) 表示该样本的分类结果熵。
对于一个模型在一个数据集上的分类结果熵,可以将数据集中所有样本的分类结果熵求平均得到,即:
H
=
1
N
∑
i
=
1
N
H
(
x
i
)
H = \frac{1}{N}\sum_{i=1}^N H(x_i)
H=N1∑i=1NH(xi)
其中 N N N 表示数据集中样本的数量, x i x_i xi 表示第 i i i 个样本。