Coupled Dictionary and Feature Space Learning with Applications to Cross-Domain Image Synthesis and

联合字典学习的目标函数:

是来自两个不同领域的n个无标签数据对,维度分别为d_{1},d_{2}

E_{DL} 表示字典学习的能量项,它典型地关于数据重构误差。联合能量项调整观察到的字典,或结果系数之间的关系。注意分别是的字典原子的数目。

在我们的工作中,我们考虑E_{DL}稀疏表示的公式,因为它已被证明在许多图像合成或识别任务中非常有效。 对于联合能量项,我们没有明确地将字典\mathbf{D}_{x}\mathbf{D}_{y}联系起来。 相反,我们施加与结果系数\mathbf{A}_{x}\mathbf{A}_{y}相关的关联函数。一旦\mathbf{A}_{x}\mathbf{A}_{y}之间的关系被发现,\mathbf{D}_{x}\mathbf{D}_{y}能通过E_{DL}更新。因此我们转化式(1)为以下问题:

文献【25】中假设LR图像和他们的HR图像拥有相同的稀疏表示,并提出了一种表示LR和HR图像对的联合字典学习。【25】关联函数定义为\gamma无穷大。放宽这个假设,【19】提出一种半联合的字典学习(SCDL),=。换句话说,SCDL假设来自一个域的稀疏系数与通过线性投影W在另一个域处观察到的稀疏系数相同。

为了更好地描述和关联跨域数据,我们将共同特征空间学习结合到原始耦合字典学习方案中。我们首先替换

\mathbf{A}_{x}的映射矩阵,

是X在k_{c}维共同特征空间的映射结果。

可以看出,我们将共同特征空间学习问题转换为投影矩阵\mathbf{U}_{x}\mathbf{U}_{y}的学习,其将用于关联得到的特征空间中的跨域数据。 与先前的联合或半联合字典学习工作不同,这进一步放宽了对观察到的字典或稀疏系数的假设。

换句话说,不是最小化,在解决联合字典学习问题时,我们考虑作为关联函数。

值得注意的是在最小化

时是不唯一的(例如,平凡解\mathbf{U}_{x}= \mathbf{U}_{y}= \mathbf{0})。因此我们需要额外的约束来保证是唯一的。

在我们的工作中,我们不仅要求共同特征空间来关联跨域数据,我们还需要这个空间来展示使用从另一个域投射的数据在一个域中恢复图像的附加能力。更具体地,对于共同特征空间(从图像集映射得到)的一个实例P,我们可以得到以便于其他域的输出图像可以通过重构。

通过上面的观察,我们为跨域图像合成定义

一旦得到的解,我们有

可以看出,,如果在式子两边同时乘以\mathbf{U}_{x}\mathbf{U}_{y},我们有,意味着最小化

这就是为什么可以将结果特征空间视为来自不同域的数据的公共表示的原因。在我们的工作中,,因为需要满足上述函数的跨域合成保证。注意SCDL关联跨域数据通过最小化,W是一个平方矩阵,。我们提出的模型的最后形式通过优化下面的问题:

在(3)中,参数γ和λ分别平衡图像表示和稀疏度。 我们对施加了额外的约束(由\lambda _{R}正则化)以确保数值稳定性并避免过度拟合。

我们想指出的是,[25]中的联合字典学习方法和[19]中的SCDL可以被视为我们提出的模型的特殊情况,其中。 然而,我们的模型更为通用,因为我们通过学习双向正则化来促进W的分解/放松。 这就解释了为什么我们的模型可用于解决合成和识别问题。 在下一小节中,我们将详细描述在训练阶段的优化过程,从而得到字典对,稀疏系数和投影矩阵。

  • 0
    点赞
  • 0
    收藏
    觉得还不错? 一键收藏
  • 0
    评论

“相关推荐”对你有帮助么?

  • 非常没帮助
  • 没帮助
  • 一般
  • 有帮助
  • 非常有帮助
提交
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值