作者按:优秀论文或文章阅读应尽量一次读懂,不要寄希望于后面,不要欺骗自己!
20201111:
这是阅读wGAN-GP相关时阅读的科普文,解决了一直遗留的疑惑,感谢原作者!
20201112:
- “苏剑林 PaperWeekly”为关键字在搜狗微信中进行搜索,继续阅读大佬的杰作。
20201118
- 从动力学角度看优化算法(五):为什么学习率不宜过小?(有五就表示有一二三四……)
- 能量视角下的GAN模型(一):GAN=“挖坑”+“跳坑”
作者按:优秀论文或文章阅读应尽量一次读懂,不要寄希望于后面,不要欺骗自己!
这是阅读wGAN-GP相关时阅读的科普文,解决了一直遗留的疑惑,感谢原作者!