联合字典学习的目标函数:
和
是来自两个不同领域的n个无标签数据对,维度分别为
。
表示字典学习的能量项,它典型地关于数据重构误差。联合能量项
调整观察到的字典
和
,或结果系数
和
之间的关系。注意
分别是
的字典原子的数目。
在我们的工作中,我们考虑的稀疏表示的公式
,因为它已被证明在许多图像合成或识别任务中非常有效。 对于联合能量项,我们没有明确地将字典
和
联系起来。 相反,我们施加与结果系数
和
相关的关联函数
。一旦
和
之间的关系被发现,
和
能通过
更新。因此我们转化式(1)为以下问题:
文献【25】中假设LR图像和他们的HR图像拥有相同的稀疏表示,并提出了一种表示LR和HR图像对的联合字典学习。【25】关联函数定义为
,
无穷大。放宽这个假设,【19】提出一种半联合的字典学习(SCDL),
=
。换句话说,SCDL假设来自一个域的稀疏系数与通过线性投影W在另一个域处观察到的稀疏系数相同。
为了更好地描述和关联跨域数据,我们将共同特征空间学习结合到原始耦合字典学习方案中。我们首先替换为
,
是
的映射矩阵,
是X在
维共同特征空间的映射结果。
可以看出,我们将共同特征空间学习问题转换为投影矩阵和
的学习,其将用于关联得到的特征空间中的跨域数据。 与先前的联合或半联合字典学习工作不同,这进一步放宽了对观察到的字典或稀疏系数的假设。
换句话说,不是最小化,在解决联合字典学习问题时,我们考虑
作为关联函数。
值得注意的是在最小化
时是不唯一的(例如,平凡解
)。因此我们需要额外的约束来保证
是唯一的。
在我们的工作中,我们不仅要求共同特征空间来关联跨域数据,我们还需要这个空间来展示使用从另一个域投射的数据在一个域中恢复图像的附加能力。更具体地,对于共同特征空间(从图像集映射得到)的一个实例P,我们可以得到
或
以便于其他域的输出图像可以通过
重构。
通过上面的观察,我们为跨域图像合成定义
一旦得到的解,我们有
可以看出,,如果在式子两边同时乘以或
,我们有
,意味着最小化
。
这就是为什么可以将结果特征空间视为来自不同域的数据的公共表示的原因。在我们的工作中,,因为
需要满足上述函数的跨域合成保证。注意SCDL关联跨域数据通过最小化
,W是一个平方矩阵,
。我们提出的模型的最后形式通过优化下面的问题:
在(3)中,参数γ和λ分别平衡图像表示和稀疏度。 我们对施加了额外的约束(由
正则化)以确保数值稳定性并避免过度拟合。
我们想指出的是,[25]中的联合字典学习方法和[19]中的SCDL可以被视为我们提出的模型的特殊情况,其中。 然而,我们的模型更为通用,因为我们通过学习
双向正则化来促进W的分解/放松。 这就解释了为什么我们的模型可用于解决合成和识别问题。 在下一小节中,我们将详细描述在训练阶段的优化过程,从而得到字典对,稀疏系数和投影矩阵。