胡今朝:关于WGAN-GP的理解zhuanlan.zhihu.com
上一篇文章中从intuitional的角度理解了WGAN-GP,基本上已经可以了,除了一个遗留问题
Review一下GAN
GAN本身用的是JS散度作为损失函数,当判别器最优的时候
WGAN用的是在Wassertein distance的基础上修改的损失函数,需要D需要是满足李普西斯条件的的函数,在WGAN中用的是gradient clipping
因为WGAN中的D的参数都集中在了+-0.01上,所以WGAN-GP中改进了满足李普西斯条件的约束,改成了:
什么意思?对参数加了惩罚,什么是加了惩罚上一篇有详细的比较intuitional的解释,都ok都能理解,唯一不能理解的东西是
怎么理解?举个例子看看
比如我取(不好打出来上面公式的notation,讲究着看)
x = [1,2,3]
x~=[4,5,6]
ℇ=1/3
x^=[1/3,2/3,3/3]+[8/3,10/3,12/3]=[3,4,5]
好,这个x^经过一个网络D
3*w1 + 4*w2 +5*w3
如果是x经过网络D
1*w1 + 2*w2 +3*w3
D对x偏导了之后确实就是w ,对x求偏导数就是将x看作变量&#