note GAN model

GAN模型笔记

首先理清楚loss.backward()
只要tensor的属性requires_grad=True,说明这是一个叶子节点,可以对其求导数。
神经网络往往先要进行forward()一次,得到结果,然后由结果backward()反向求各参数的导数,并将结果保存在tensor.grad.data这里,这就是我们求导 δ l o s s δ w \frac{\delta loss}{\delta w} δwδloss然后,优化器optimizer.step()这个操作就是更新这些参数,最基本的梯度下降法操作就是 w = w − l r ∗ δ l o s s δ w w =w-lr*\frac{\delta loss}{\delta w} w=wlrδwδloss这样就完成一次网络参数的更新。
而为什么每次还要将optimizer.zero_grad()先执行以下,再执行上面操作呢?
这个optimizer.zero_grad()操作是将gard.data清零,因为上一次loss.backward()之后更新完参数,如果不清零,那么现在再次loss.backward(),这个grad.data就会由上次的data和这次的data累加得到,那么在更新参数时,由公式可以看出,就没有意义了。所以要把上次计算的偏导数更新为零,再计算现在的偏导数,从而更新参数。


上面有什么地方理解的不对的,还请各位同学批评指正!下面看GAN模型。


之所以说上面这些,是因为在用pytorch构造GAN模型时,总是要固定某一网络参数,而更新另一网络参数,这是最基本的操作。所以,一定需要了解网络是怎么更新参数的。
GAN模型,由生成器和判别器组成,这是最原始的,现在也有很多变种,这里只讲最原始最经典的GAN模型。
更新时间20190910 19:09 ,今天先到这了

评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值