Solving Inverse Problems With Deep Neural Networks

Solving Inverse Problems With Deep Neural Networks - Robustness Included

  • 作者:Martin Genzel, Jan Macdonald, and Maximilian M¨arz
  • 期刊:preprint arXiv
  • 时间:2020
  • 代码链接:代码
  • 论文链接:论文

1 动机与研究内容

  • 最近工作发现深度神经网络对于图像重构的不稳定(instabilities),以及分类中的对抗攻击,在输入域发生微小改变时就会造成输出非常大的改变。
  • 本篇论文对深度神经网络解决欠定(underdetermined)的逆问题的鲁棒性(robustness)进行了研究。研究内容包括用Guassian measurement的压感(compressed sening)以及通过Founier and Radon measurement的图像恢复,
  • 实验结果表示标准的端到端(end-to-end)的网络结构不仅对噪音有弹性,而且对对抗扰动也有弹性(resilient)。

2 问题背景

  • 通过间接的方法实现信号重构(signal reconstruction)在各种应用中具有重要作用,这样的任务呗称作逆问题

image.png(1)

  • 数据的获取通常costly,所以undetermined regime( m ≪ N m \ll N mN)受到了广泛的研究,这样的重构问题叫做ill-posed inverse problem
  • compressed sensing已经证明解决重构问题有着准确性以及鲁棒性的优点,该方法有一个映射Rec R m → R N \mathbb{R}^{m} \rightarrow \mathbb{R}^{N} RmRN,使得(1)满足一个错误边界:

∥ x 0 − Rec ⁡ ( y ) ∥ 2 ≤ C ⋅ η \left\|\boldsymbol{x}_{0}-\operatorname{Rec}(\boldsymbol{y})\right\|_{2} \leq C \cdot \eta x0Rec(y)2Cη(2)
但是在real world,受到计算cost、人工调参、以及测量数据与真实数据的mismatch

  • 现在神经网络的方法来实现重构,利用有监督的样本训练实现重构,需要大量样本训练。由于不能满足(2)的理论保证,其准确性和抗测量噪声的鲁棒性的经验验证是至关重要的
  • 研究robust against noise具有重要意义。

3 本文方法

3.1 Neural Network Architectures

UNet: R m → R N , y ↦ [ U ∘ A † ] ( y ) \mathbb{R}^{m} \rightarrow \mathbb{R}^{N}, \boldsymbol{y} \mapsto\left[\mathcal{U} \circ \mathcal{A}^{\dagger}\right](\boldsymbol{y}) RmRN,y[UA](y)
image.png

  •  TiraFL:  R m → R N , y ↦ [ T ∘ L ] ( y ) \text { TiraFL: } \mathbb{R}^{m} \rightarrow \mathbb{R}^{N}, \boldsymbol{y} \mapsto[\mathcal{T} \circ \mathcal{L}](\boldsymbol{y})  TiraFL: RmRN,y[TL](y)
  •  ItNet:  R m → R N , y ↦ [ ( ◯ k = 1 K [ D C λ k , y , A ∘ U ] ) ∘ A † ] ( y ) \text { ItNet: } \mathbb{R}^{m} \rightarrow \mathbb{R}^{N}, \boldsymbol{y} \mapsto\left[\left(\bigcirc_{k=1}^{K}\left[\mathcal{D} \mathcal{C}_{\lambda_{k}, \boldsymbol{y}, \mathcal{A}} \circ \mathcal{U}\right]\right) \circ \mathcal{A}^{\dagger}\right](\boldsymbol{y})  ItNet: RmRN,y[(k=1K[DCλk,y,AU])A](y)

其中, D C λ k , y , A : R N → R N , x ↦ x − λ k ⋅ A ∗ ( A x − y ) \mathcal{D} \mathcal{C}_{\lambda_{k}, \boldsymbol{y}, \mathcal{A}}: \mathbb{R}^{N} \rightarrow \mathbb{R}^{N}, \boldsymbol{x} \mapsto \boldsymbol{x}-\lambda_{k} \cdot \mathcal{A}^{*}(\mathcal{A} \boldsymbol{x}-\boldsymbol{y}) DCλk,y,A:RNRN,xxλkA(Axy)

3.2 Total-Variation Minimization

Total variation (TV) minimization是一种求解信号和图像重构任务的方法,解决(1)的以下列的形式:

T V [ η ] : R m → R N y ↦ argmin ⁡ x ∈ R N ∥ ∇ x ∥ 1  s.t.  ∥ A x − y ∥ 2 ≤ η \begin{aligned} \mathrm{TV}[\eta]: \mathbb{R}^{m} & \rightarrow \mathbb{R}^{N} \\ \boldsymbol{y} & \mapsto \underset{\boldsymbol{x} \in \mathbb{R}^{N}}{\operatorname{argmin}}\|\nabla \boldsymbol{x}\|_{1} \quad \text { s.t. } \quad\|\mathcal{A} \boldsymbol{x}-\boldsymbol{y}\|_{2} \leq \eta \end{aligned} TV[η]:RmyRNxRNargminx1 s.t. Axy2η

3.3 Adversarial Noise

e a d v = argmax ⁡ e ∈ R m ∥ Rec ⁡ ( y 0 + e ) − x 0 ∥ 2  s.t.  ∥ e ∥ 2 ≤ η \boldsymbol{e}_{\mathrm{adv}}=\underset{\boldsymbol{e} \in \mathbb{R}^{m}}{\operatorname{argmax}}\left\|\operatorname{Rec}\left(\boldsymbol{y}_{0}+\boldsymbol{e}\right)-\boldsymbol{x}_{0}\right\|_{2} \quad \text { s.t. } \quad\|\boldsymbol{e}\|_{2} \leq \eta eadv=eRmargmaxRec(y0+e)x02 s.t. e2η

4 总结

  • 所有训练的NNs对噪音数据都具有明显的鲁棒性
  • 提高在迭代策略中数据的一致性(consistency)可能提高准确性和鲁棒性
  • 不应该仅仅使用无噪声的数据进行训练,论文中也揭示了仅仅简单的添加白高斯噪音也是一种有效策略(一种正则化的方法)
  • 核心:分类任务中对抗性例子的存在不会自然地影响到基于NN的反问题求解器。这样的重建方案不仅可以取代传统的方法,成为最先进的,但他们也显示了类似程度的鲁棒性

5 相关工作

  • 现在许多现有文章是关注于分类和相关任务,少数文献研究明确解决了逆问题中的学习求解器的对抗鲁棒性
  • Huang等首次将对抗性攻击迁移到基于神经网络的重构方法,他们最初的发现局限于有限角度计算机断层摄影的特定问题,在特定问题中图像的某些部分被证明是不可能有robust recovery
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包

打赏作者

pinn山里娃

原创不易请多多支持

¥1 ¥2 ¥4 ¥6 ¥10 ¥20
扫码支付:¥1
获取中
扫码支付

您的余额不足,请更换扫码支付或充值

打赏作者

实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值