GAN介绍 - 介绍 https://blog.csdn.net/sean2100/article/details/83662975
GAN介绍 - 为什么学习生成式模型? https://blog.csdn.net/sean2100/article/details/83681043
GAN介绍 - 生成式模型是如何工作的? GAN与其他模型有什么区别?https://blog.csdn.net/sean2100/article/details/83907062
GAN介绍 - 提示与技巧 https://blog.csdn.net/sean2100/article/details/83964523
GAN介绍 - 相关研究课题 https://blog.csdn.net/sean2100/article/details/84010202
GAN介绍 - 即插即用生成网络(PPGN) https://blog.csdn.net/sean2100/article/details/84032930
GAN介绍 - 练习题 https://blog.csdn.net/sean2100/article/details/84037752
GAN介绍 - 练习题答案 https://blog.csdn.net/sean2100/article/details/84037768
GAN介绍 - 总结 https://blog.csdn.net/sean2100/article/details/84010467
May 13, 2017
这个辅导包含三个练习来检查读者的理解。 答案请参考第8章。
7.1 最优的判别器策略
正如方程式8所描述, 判别器的目标是最小化关于θ(D)θ(D)的以下方程式
假设判别器可以在函数空间被优化, D(x)D(x)的值对于每一个xx的值是独立的。 求解DD的最优策略? 为了获得这个结果需要什么样的假设?
7.2 游戏的梯度下降
现在考虑一个包含两个玩家的极小极大博弈, 每一个玩家控制一个标量。 控制标量xx的玩家要求最小化,控制yy的玩家要求最大化。 游戏的价值函数是
- 此博弈有平衡状态吗? 如果有, 在什么地方?
-
考虑一下此同步梯度下降的动态学习过程。 为了简化问题, 将梯度下降作为一个连续的时间过程。 有一个极小的学习率, 梯度下降通过一个偏微分方程来描述:
根据这个动态求解一下优化轨迹。
7.3 GAN框架中的最大似然
此练习中, 我们处理一个损失函数,基于(近似)最大似然学习的GAN架构。 我们的目标是设计J(G)J(G), 满足,当我们假设判别器是最优的情况下, J(G)J(G)的期望梯度将与DKL(pdata||pmodel)DKL(pdata||pmodel)的期望梯度一致。
这个解决方法的有以下的表达形式:
这个练习包含如何确定ff的表现形式。
[最终修改于: 2017年6月14日]
来源:https://sinpycn.github.io/2017/05/13/GAN-Tutorial-Exercises.html