最优传输理论下对抗攻击可解释性

本文研究了深度学习中的对抗攻击,从最优传输理论角度进行了解释。作者提出,梯度方向不仅是最优传输方案,也是构造对抗样本的方向。通过调整损失函数,可以找到鲁棒性和可解释性的平衡。实验表明,最优传输网络的解释性优于传统方法,为对抗攻击提供了一种可理解的视角。

摘要生成于 C知道 ,由 DeepSeek-R1 满血版支持, 前往体验 >

1 引言

该论文是关于对抗攻击理论性的文章,作者为对抗攻击提供了非常可靠的解释性。当前最优传输理论是深度学习理论中非常热门一个的方向,作者从最优传输理论的角度去分析对抗攻击的现象。当学习具有最优传输问题对偶损失的 1 - L i p s c h i t z 1\text{-}\mathrm{Lipschitz} 1-Lipschitz神经网络时,模型的梯度既是最优传输方案的方向,也是最接近对抗样本的方向。沿着梯度移动到决策边界不再是一种对抗攻击,而是一种反事实的解释,即可以看作明确地从一个类传输到另一个类。通过对可解释 A I \mathrm{AI} AI度量的大量实验可以发现,应用于最优传输网络的简单显著性映射方法是一种可靠的解释,并且在无约束模型上优于最新的解释方法。
论文链接: https://arxiv.org/pdf/2206.06854.pdf

2 最优传输,鲁棒性和可解释性

π \pi π是关于最小化损失函数 L λ , m h K R \mathcal{L}^{hKR}_{\lambda,m} Lλ,mhKR的最优传输方案。给定 x ∈ P + ( P − ) {\bf{x}}\in P_{+}(P_{-}) xP+(P),令 y ∈ t r π ( x ) ∈ P − ( P + ) {\bf{y}}\in\mathrm{tr}_{\pi}({\bf{x}})\in P_{-}(P_{+}) ytrπ(x)P(P+) x {\bf{x}} x关于 π \pi π的图像。因为 π \pi π是不确定的,可以令 t r π ( x ) \mathrm{tr}_\pi({\bf{x}}) trπ(x)作为关于 π \pi π的最大点,进而有如下命题:

命题1(传输计划方向): f ∗ f^{*} f是最小化损失函数 L λ , m h K R \mathcal{L}^{hKR}_{\lambda,m} Lλ,mhKR的一个最优解。给定 x ∈ P + ( x ∈ P − ) {\bf{x}}\in P_+({\bf{x}}\in P_-) xP+(xP) y = t r π ( x ) {\bf{y}}=\mathrm{tr}_\pi ({\bf{x}}) y=trπ(x),那么当 ∃ t ≥ 0 ( t ≤ 0 ) \exists t \ge 0(t\le 0) t0(t0),则有 y = x − t ∇ x f ∗ ( x ) {\bf{y}}={\bf{x}}-t \nabla_{\bf{x}}f^*({\bf{x}}) y=xtxf(x)几乎处处成立。

这个没有 h i n g e \mathrm{hinge} hinge正则化的命题对于 K - R \mathrm{K\text{-}R} K-R对偶问题为真。它证明了对于大多数 x ∈ P + ⋃ P − {\bf{x}}\in P_+ \bigcup P_- xP+P ∇ x f ∗ ( x ) \nabla_{\bf{x}} f^*({\bf{x}}) xf(x)表示传输方案的方向。

命题2(决策边界): P + P_+ P+ P − P_- P为两个有最小距离 ϵ \epsilon ϵ的可分离的分布, f ∗ f^* f为最小化损失函数 L λ , m h K R \mathcal{L}^{hKR}_{\lambda,m} Lλ,mhKR的一个最优解,其中 m < 2 ϵ m<2 \epsilon m<2ϵ。给定 x ∈ P + ∪ P − {\bf{x}}\in P_+ \cup P_- xP+P y = t r π ( x ) ∈ { x − t ∇ x f ∗ ( x ) } {\bf{y}}=\mathrm{tr}_\pi({\bf{x}})\in\{{\bf{x}}-t \nabla_x f^*({\bf{x}})\} y=trπ(x){xtxf(x)},则有 ∣ t ∣ > ∣ f ∗ ( x ) ∣ |t|>|f^*(x)| t>f(x) x δ = x − f ∗ ( x ) ∇ x f ∗ ( x ) ∈ δ f ∗ x_\delta={\bf{x}}-f^*({\bf{x}})\nabla_{\bf{x}}f^*({\bf{x}})\in \delta f^* xδ=xf(x)xf(x)δf,其中 δ f ∗ = { x ′ ∈ Ω ∣ f ∗ ( x ′ ) = 0 } \delta f^*=\{x^{\prime}\in \Omega|f^*(x^{\prime})=0\} δf={xΩf(x)=0}是决策边界。

推论1: P + P_+ P+ P − P_- P为两个有最小距离 ϵ \epsilon ϵ的可分离的分布, f ∗ f^* f为最小化损失函数 L λ , m h K R \mathcal{L}^{hKR}_{\lambda,m} Lλ,mhKR的一个最优解,其中 m < 2 ϵ m<2 \epsilon m<2ϵ,给定 x ∈ P + ∪ P − {\bf{x}}\in P_+ \cup P_- xP+P,则有 a d v ( f ∗ , x ) = x δ \mathrm{adv}(f^*,{\bf{x}})=x_\delta adv(f,x)=xδ几乎处处成立,其中 x δ = x − f ∗ ( x ) ∇ x f ∗ ( x ) x_\delta={\bf{x}}-f^*({\bf{x}})\nabla_{\bf{x}} f^*({\bf{x}}) xδ=xf(x)xf(x)

推论1表明,基于损失函数 L λ , m h K R \mathcal{L}^{hKR}_{\lambda,m} Lλ,mhKR的分类器精确地得到对抗样本。在这种情况下,最佳对抗攻击是在梯度方向上,应用于最优传输神经网络模型的所有攻击,如 P G D \mathrm{PGD} PGD攻击或 C & W \mathrm{C\&W} C&W攻击,都等效于 F G S M \mathrm{FGSM} FGSM攻击。为了说明这些命题,作者学习了一个损失函数为 L λ , m h K R \mathcal{L}^{hKR}_{\lambda,m} Lλ,mhKR的密集二元分类器来分离两个复杂分布。下图(a)显示了两种分布(蓝色和橙色雪花),学习的边界(红色虚线)。下图(b)和(c)显示了两个分布中的随机样本 x \bf{x} x,其中 x δ {\bf{x}}_\delta xδ定义在命题2中的段 [ x , x δ ] [{\bf{x}},{\bf{x}}_\delta] [x,xδ]。正如命题2所所描述的那样,该点正好落在决策边界上。此外,如命题1所述,每个片段提供了图像相对于运输计划的方向。

作者证明了使用最优传输神经网络时,对抗攻击在形式上是被已知的,并且易于计算。此外,作者还证明了对抗攻击是沿着传输映射进行的,因此对抗攻击不再是一种不可察觉的修改,而是对样本的一种可以理解的转换。作者将利用这些属性来显示 ∇ x f ∗ ( x ) \nabla_x f^*({\bf{x}}) xf(x)提供了一种自然的反事实解释,它具有可证明的解释性属性。
给定 P + P_+ P+类中样本 x \bf{x} x的反事实解释是最接近的样本 y ∈ P − {\bf{y}}\in P_− yP。由于通常无法直接获得 P + P_+ P+ P − P_− P的全局信息,所以作者仅针对分类器 f f f来获取其局部信息。在这种情况下,反事实对应于命题2中定义的对抗攻击。对于经典的神经网络,这只能通过添加对抗噪声来实现,这不是一个有价值的解释。由于它只依赖于 x \bf{x} x f f f,这种反事实解释的定义是局部的。相反,作为 L λ , m h K R L_{\lambda,m}^{hKR} Lλ,mhKR的最小值的传输方案描述了从 P + P_+ P+类到 P − P_- P的最优方案,所以传输方案是一种全局的反事实解释,并且 ∇ x f ∗ ( x ) \nabla_{\bf{x}} f^*({\bf{x}}) xf(x)是对 x {\bf{x}} x的局部解释。需要注意的是,传输方案并没有在相反的类上提供最接近的样本,但在配对过程中提供了最接近的平均值。根据命题1,最优传输方案中 x \bf{x} x的图像为 y = x + t ∇ x f ∗ ( x ) {\bf{y}}={\bf{x}}+t\nabla_{\bf{x}}f^*({\bf{x}}) y=x+txf(x)。即使 t t t仅部分已知,当 t = f ∗ ( x ) t=f^*({\bf{x}}) t=f(x)时,可知 y \bf{y} y在决策边界上,并且可以进一步确定 ∣ t ∣ ≥ ∣ f ( x ) ∣ |t|\ge|f(x)| tf(x)在最优传输方案的路径上。
以往显著图 ϕ x ( i ) = ∣ ∂ f l x i ∣ \phi_x(i)=\left|\frac{\partial f_l}{x_i}\right| ϕx(i)=xifl对分类器分类现象只提供了一个非常直观模糊的解释,在该论文中,作者在最优传输神经网络中提出了一个非常值得信赖的解释。 ∇ x f ∗ ( x ) \nabla_x f^*(x) xf(x)表示的是最优传输方案的方向,因此显著图 ϕ x ( i ) = ∣ ∂ f l x i ∣ \phi_x(i)=\left|\frac{\partial f_l}{x_i}\right| ϕx(i)=xifl表示的是每个输入特征在该方向上的重要程度。

3 h K R \mathrm{hKR} hKR损失函数

要知道 1 - L i p s c h i t z 1\text{-}\mathrm{Lipschitz} 1-Lipschitz函数的一个缺点是,它强烈依赖于损失函数的参数。在二分类情况下, L λ h K R L^{hKR}_{\lambda} LλhKR有两个参数:分别间隙参数 m m m和权重参数 λ \lambda λ,其中 λ \lambda λ用于权衡分类模型的鲁棒性和准确性。当类是可分的且 m m m足够小时,损失函数中的 h i n g e \mathrm{hinge} hinge部分会趋于 0 0 0。这会使得参数 m m m很难选择,在该论文中作者提出了一个新的损失公式如下所示: L λ , α h K R ( f ) = E x ∼ P − [ f ( x ) ] − E x ∼ P + [ f ( x ) ] + λ ( E x ( m − Y f ( x ) ) + + α m ) \mathcal{L}^{hKR}_{\lambda,\alpha}(f)=\mathbb{E}_{{\bf{x}}\sim P_{- }}[f({\bf{x}})]-\mathbb{E}_{{\bf{x}}\sim P_{+}}[f({\bf{x}})]+\lambda(\mathbb{E}_{{\bf{x}}}(m-Y f({\bf{x}}))_++\alpha m) Lλ,αhKR(f)=ExP[f(x)]ExP+[f(x)]+λ(Ex(mYf(x))++αm)其中 m > 0 m>0 m>0是一个可学习的参数, 0 < α < 1 0<\alpha<1 0<α<1是一个新的参数。 f ( x ) f({\bf{x}}) f(x)在边界间隙是一个均匀分布,当 x {\bf{x}} x的比率为 α \alpha α时,使得 f ( x ) ≤ m f({\bf{x}})\le m f(x)m,则最优间隙参数 m m m可以被获得,后者可以解释为损失的关键部分所涉及的目标数据比例。选择 λ ≈ 1 α \lambda\approx \frac{1}{\alpha} λα1,在优化过程中, K R \mathrm{KR} KR的权重部分与 h i n g e \mathrm{hinge} hinge部分大体一致。使用这种方法,可以选择的唯一参数是 α \alpha α,它可以解释为学习过程中目标的近似错误率。
给定一个有 q q q类的多分类问题, f 1 , ⋯   , f q f_1,\cdots,f_q f1,,fq是一个一对多的二分类器,损失函数如下所示 L λ h K R ( f 1 , ⋯   , f q ) = ∑ k = 1 q [ E x ∼ ¬ P k [ f k ( x ) ] − E x ∼ P k [ f k ( x ) ] ] + λ E x , y ⋃ k = 1 q P k ( H ( f 1 ( x ) , ⋯   , f q ( x ) ) , y ) \mathcal{L}^{hKR}_\lambda(f_1,\cdots,f_q)=\sum\limits_{k=1}^q\left[\mathbb{E}_{{\bf{x}}\sim \neg P_k}[f_k({\bf{x}})]-\mathbb{E}_{{\bf{x}}\sim P_k}[f_k({\bf{x}})]\right]+\lambda \mathbb{E}_{{\bf{x}},{\bf{y}}\bigcup\limits_{k=1}^q P_k}(H(f_1({\bf{x}}),\cdots,f_q({\bf{x}})),y) LλhKR(f1,,fq)=k=1q[Ex¬Pk[fk(x)]ExPk[fk(x)]]+λEx,yk=1qPk(H(f1(x),,fq(x)),y)其中 H ( f 1 ( x ) , ⋯   , f q ( x ) ) = ∑ k = 1 q m − ( 2 ∗ I y = k − 1 ) ∗ f k ( x ) H(f_1({\bf{x}}),\cdots,f_q({\bf{x}}))=\sum\limits_{k=1}^q m-(2 *\mathbb{I}_{y=k}-1)*f_k({\bf{x}}) H(f1(x),,fq(x))=k=1qm(2Iy=k1)fk(x)以上公式主要有三个缺点:其一是每个类的最佳边距可能不同,导致会有大量超参数需要被调参;其二是对于大量类中样本分布不平衡可能会导致模型收敛速度缓慢;其三是 f y ( x ) f_{\bf{y}}({\bf{x}}) fy(x)(真实类别的函数)相对于其他类别的权重随着类别数量的增加而降低。 为了克服这些缺点,作者提出了一种基于 s o f t m a x \mathrm{softmax} softmax h i n g e \mathrm{hinge} hinge正则化损失函数: H s o f t α ( f 1 ( x ) , ⋯   , f q ( x ) ) = m y − 1 2 f y ( x ) + 1 2 ∑ k ≠ y f k ( x ) ∗ e f k ( x ) ∑ j ≠ y e f j ( x ) + α m y H^\alpha_{\mathrm{soft}}(f_1({\bf{x}}),\cdots,f_q({\bf{x}}))=m_y-\frac{1}{2}f_y({\bf{x}})+\frac{1}{2}\sum\limits_{k\ne y}f_k({\bf{x}})*\frac{e^{f_k({\bf{x}})}}{\sum\limits_{j\ne y}e^{f_j({\bf{x}})}}+\alpha m_y Hsoftα(f1(x),,fq(x))=my21fy(x)+21k=yfk(x)j=yefj(x)efk(x)+αmy其中 m y ≥ 0 m_y \ge 0 my0,对于真实的类别, f y ( x ) f_{\bf{y}}({\bf{x}}) fy(x)和其它函数总是有相同的权重。在学习的初期阶段,因为 f k f_k fk的取值是平均的;在训练的过程中, f k f_k fk的值会逐渐不同,直至某个分量出现最大值并稳定。

4 实验结果

作者使用插入和删除指标评估最优传输神经网络的显著图解释的质量。在 C e l e b A \mathrm{CelebA} CelebA F a s h i o n M N I S T \mathrm{FashionMNIST} FashionMNIST数据集上针对两种类型的网络评估经典解释方法。下表显示在显著图方法在最优传输神经网络上的指标上变得具有竞争力并且提供了更加可靠的解释性。

下表评估了不同数据集在最优传输网络上两个指标 L 2 L_2 L2 S p e a r m a n \mathrm{Spearman} Spearman等级相关系数 ρ \rho ρ。最优传输网络上解释距离远低于无约束的解释距离,并且非常接近于 0 0 0

下图为定性可视化结果,可以直观的发现说明了在最优神经网络中提供了更好更清晰的解释性。

从下表定量结果可以直观的发现,通过所有这些实验得出结论,使用多种类型的解释指标,最优传输神经网络的可解释性优于无约束的神经网络。
下面两张图分别在 C e l e b A \mathrm{CelebA} CelebA F a s h i o n M N I S T \mathrm{FashionMNIST} FashionMNIST数据集上学习到的最优传输网络,下面两张图显示了原始图像,通道上的平均梯度 ∇ x f j \nabla_x f_j xfj,以及有传输方案方向的图像。可以直观的发现,大多数梯度在视觉上都是一致的。

5 附录证明

关于损失函数 L λ , m h K R \mathcal{L}_{\lambda,m}^{hKR} Lλ,mhKR的最优传输问题如下所示 inf ⁡ f ∈ L i p 1 ( Ω ) L λ ( f ) , m h K R = inf ⁡ π ∈ Π λ p ( P + , P − ) ∫ Ω × Ω ∣ x − z ∣ d π + π z ( Ω ) − 1 \inf\limits_{f\in \mathrm{Lip}_1(\Omega)} \mathcal{L}_{\lambda(f),m}^{hKR}=\inf\limits_{\pi \in \Pi_\lambda^p(P_+,P_-)}\int_{\Omega \times \Omega}|{\bf{x}}-{\bf{z}}|d\pi +\pi_{{\bf{z}}}(\Omega)-1 fLip1(Ω)infLλ(f),mhKR=πΠλp(P+,P)infΩ×Ωxzdπ+πz(Ω)1其中 Π λ p ( P + , P − ) \Pi^p_{\lambda}(P_+,P_-) Πλp(P+,P)表示包含关于联合测度 d P + × d P − d P_+\times dP_- dP+×dP d π x d P + ∈ [ p , p ( m + λ ) ] \frac{d \pi_{\bf{x}}}{d P_+}\in[p,p(m+\lambda)] dP+dπx[p,p(m+λ)] d π z d P − ∈ [ 1 − p , ( 1 − p ) ( m + λ ) ] \frac{d \pi_{{\bf{z}}}}{d P_-}\in[1-p,(1-p)(m+\lambda)] dPdπz[1p,(1p)(m+λ)]的正测度 π ∈ M + ( Ω × Ω ) \pi\in \mathcal{M}_{+}(\Omega\times \Omega) πM+(Ω×Ω)的集合, π ∗ \pi^* π是最优传输方案, f ∗ f^* f是相应的势函数。
命题1证明: 已知有 ∥ ∇ x f ∗ ( x ) ∥ = 1 \|\nabla_x f^*({\bf{x}})\|=1 xf(x)=1几乎处处成立,并且有 P ( x , y ) ∼ π ∗ ( ∣ f ∗ ( x ) − f ∗ ( y ) ∣ = ∥ x − y ∥ ) = 1 \mathbb{P}_{({\bf{x}},{\bf{y}})\sim \pi^*}(|f^*({\bf{x}})-f^*({\bf{y}})|=\|{\bf{x}}-{\bf{y}}\|)=1 P(x,y)π(f(x)f(y)=xy)=1给定 x α = α ∗ x + ( 1 − α ) y ,   0 ≤ α ≤ 1 {\bf{x}}_\alpha=\alpha * x+(1-\alpha){\bf{y}},\text{ }0\le \alpha \le 1 xα=αx+(1α)y, 0α1 P ( x , y ) ∼ π ∗ ( ∇ x f ∗ ( x α ) = x α − y ∥ x α − y ∥ ) = 1 \mathbb{P}_{({\bf{x}},{\bf{y}})\sim\pi^*}\left(\nabla_x f^*({\bf{x}}_\alpha)=\frac{{\bf{x}}_\alpha - {\bf{y}}}{\|{\bf{x}}_\alpha -{\bf{y}}\|}\right)=1 P(x,y)π(xf(xα)=xαyxαy)=1 α = 1 \alpha=1 α=1时,则有 P ( x , y ) ∼ π ∗ ( ∇ x f ∗ ( x ) = x − y ∥ x − y ∥ ) = 1 \mathbb{P}_{({\bf{x}},{\bf{y}})\sim\pi^*}\left(\nabla_x f^*({\bf{x}})=\frac{{\bf{x}} - {\bf{y}}}{\|{\bf{x}} -{\bf{y}}\|}\right)=1 P(x,y)π(xf(x)=xyxy)=1进而则有
P ( x , y ) ∼ π ∗ ( y = x − ∇ x f ∗ ( x ) ∥ x − y ∥ ) = 1 \mathbb{P}_{({\bf{x}},{\bf{y}})\sim \pi^*}({\bf{y}}={\bf{x}}-\nabla_x f^*({\bf{x}}) \|{\bf{x}}-{\bf{y}}\|)=1 P(x,y)π(y=xxf(x)xy)=1所以当选择 t = ∥ x − y ∥ t=\|{\bf{x}}-{\bf{y}}\| t=xy时,命题1证明成立。

命题2证明: P + P_+ P+ P − P_- P是两个可分离的分布,有最小距离 ϵ \epsilon ϵ和最小化损失函数 L λ , m h K R \mathcal{L}^{hKR}_{\lambda,m} Lλ,mhKR的最优解,其中 m < 2 ϵ m<2 \epsilon m<2ϵ ∀ x ∈ P + \forall {\bf{x}}\in P_+ xP+ f ∗ ( x ) ≥ 0 f^*({\bf{x}})\ge 0 f(x)0 ∀ y ∈ P − \forall {\bf{y}}\in P_- yP f ∗ ( y ) ≤ 0 f^*({\bf{y}})\le 0 f(y)0。给定 x ∈ P + {\bf{x}}\in P_+ xP+ y = t r ( x ) = x − t ∇ x f ∗ ( x ) {\bf{y}}=\mathrm{tr}({\bf{x}})={\bf{x}}-t \nabla_x f^*({\bf{x}}) y=tr(x)=xtxf(x) y ∈ P − {\bf{y}}\in P_- yP,根据命题1可知 ∣ f ∗ ( x ) − f ∗ ( y ) ∣ = ∥ x − y ∥ ∣ f ∗ ( x ) − f ∗ ( y ) ∣ = ∥ x − ( x − t ∇ x f ∗ ( x ) ) ∥ ∣ f ∗ ( x ) − f ∗ ( y ) ∣ = ∥ t ∇ x f ∗ ( x ) ∥ ∣ f ∗ ( x ) − f ∗ ( y ) ∣ = t ∥ ∇ x f ∗ ( x ) ∥ f ∗ ( x ) − f ∗ ( y ) = t f ∗ ( y ) = f ∗ ( x ) − t \begin{aligned}|f^{*}({\bf{x}})-f^{*}({\bf{y}})|&=\|{\bf{x}}-{\bf{y}}\|\\|f^{*}({\bf{x}})-f^{*}({\bf{y}})|&=\|{\bf{x}}-({\bf{x}}-t\nabla_x f^*({\bf{x}}))\|\\ |f^{*}({\bf{x}})-f^{*}({\bf{y}})|&=\|t \nabla_x f^*({\bf{x}})\|\\ |f^{*}({\bf{x}})-f^{*}({\bf{y}})|&=t \|\nabla_x f^*({\bf{x}})\|\\ f^{*}({\bf{x}})-f^{*}({\bf{y}})&= t\\ f^*({\bf{y}})&=f^*({\bf{x}})-t\end{aligned} f(x)f(y)f(x)f(y)f(x)f(y)f(x)f(y)f(x)f(y)f(y)=xy=x(xtxf(x))=txf(x)=txf(x)=t=f(x)t其中 t ≥ 0 t\ge 0 t0 ∇ x f ∗ ( x ) = 1 \nabla_x f^*({\bf{x}})=1 xf(x)=1 f ∗ ( x ) ≥ 0 f^*({\bf{x}})\ge 0 f(x)0 f ∗ ( y ) ≤ 0 f^*({\bf{y}})\le 0 f(y)0。 当 f ∗ ( y ) ≤ 0 f^*({\bf{y}})\le 0 f(y)0时,则有 f ∗ ( x ) ≤ t f^*({\bf{x}})\le t f(x)t因为 f ∗ f^* f是连续的, ∃ t ′ > 0 \exists t^{\prime}>0 t>0 x δ = x − t ′ ∇ x f ∗ ( x ) {\bf{x}}_\delta={\bf{x}}-t^{\prime}\nabla_x f^*({\bf{x}}) xδ=xtxf(x) f ∗ ( x ) f^*({\bf{x}}) f(x),则有 ∣ f ∗ ( x ) − f ∗ ( x δ ) ∣ ≤ ∥ x − x δ ∥ f ∗ ( x ) ≤ ∥ x − ( x − t ′ ∇ x f ∗ ( x ) ) ∥ f ∗ ( x ) ≤ t ′ \begin{aligned}|f^*({\bf{x}})-f^*({\bf{x}}_\delta)|&\le\|{\bf{x}}-{\bf{x}}_\delta\|\\f^{*}({\bf{x}})&\le \|{\bf{x}}-({\bf{x}}-t^{\prime}\nabla_x f^*({\bf{x}}))\|\\ f^*({\bf{x}})&\le t^{\prime}\end{aligned} f(x)f(xδ)f(x)f(x)xxδx(xtxf(x))t ∣ f ∗ ( x δ ) − f ∗ ( y ) ∣ ≤ ∥ x δ − y ∥ − f ∗ ( y ) ≤ ∥ ( x − t ′ ∇ x f ∗ ( x ) ) − ( x − t ∇ x f ∗ ( x ) ) ∥ − f ∗ ( y ) ≤ t − t ′ − f ∗ ( y ) ≤ ∥ x − y ∥ − t ′ \begin{aligned}|f^*({\bf{x}}_\delta)-f^*({\bf{y}})|&\le \|{\bf{x}}_\delta -{\bf{y}}\|\\ -f^*({\bf{y}})&\le \|({\bf{x}}-t^{\prime}\nabla_x f^*({\bf{x}}))-({\bf{x}}-t \nabla_x f^*({\bf{x}}))\|\\ -f^*({\bf{y}})&\le t - t^\prime \\ -f^*({\bf{y}})& \le \|{\bf{x}}-{\bf{y}}\|-t^{\prime}\end{aligned} f(xδ)f(y)f(y)f(y)f(y)xδy(xtxf(x))(xtxf(x))ttxyt如果 f ∗ ( x ) < t ′ f^*({\bf{x}})<t^{\prime} f(x)<t,则有 f ∗ ( x ) − f ∗ ( y ) ≤ t ′ + ∥ x − y ∥ − t ′ f ∗ ( x ) − f ∗ ( y ) < ∥ x − y ∥ \begin{aligned}f^*({\bf{x}})-f^*({\bf{y}})&\le t^{\prime}+\|{\bf{x}}-{\bf{y}}\|-t^{\prime}\\ f^*({\bf{x}})-f^*({\bf{y}})&< \|{\bf{x}}-{\bf{y}}\|\end{aligned} f(x)f(y)f(x)f(y)t+xyt<xy此时出现矛盾,所以则有 f ∗ ( x ) = t f^*({\bf{x}})=t f(x)=t x δ = x − f ∗ ( x ) ∇ x f ∗ ( x ) {\bf{x}}_\delta={\bf{x}}-f^*({\bf{x}})\nabla_x f^*({\bf{x}}) xδ=xf(x)xf(x)

生词总结

论文中出现的生词
proposition: 命题minimizer:最小化
deterministic:确定性counterfactual:反事实
automatic: 自动的margin:空隙
separable:可分离的deletion: 删除
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包

打赏作者

道2024

你的鼓励将是我创作的最大动力

¥1 ¥2 ¥4 ¥6 ¥10 ¥20
扫码支付:¥1
获取中
扫码支付

您的余额不足,请更换扫码支付或充值

打赏作者

实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值