1.开始详细讲How to Attack
一样是梯度下降,但是要更新的是X‘而不是网络参数θ。我们需要最小化L(x’),且x0和x’的差距不能太大,将这样的x叫做x*
有一句话:Just like training a neural network, but network parameter 𝜃 is replaced with input x′
x*看上去解,我们可以把约束去掉来解:
用GD来弄,这里是对x进GD,GD的话强调,要先初始化参数,然后加入约束,每次更新了xt后判断是否满足条件,如果不满足,那么对xt 进行修正,使其满足限制条件。修正函数如下
思想是穷举所有满足约束条件的x,找一个离xt最近的x来替换xt
一以x0为圆心,找到x。还得离xt近一些。