![59a7d9d2217142689bc9195218bfb982.png](https://i-blog.csdnimg.cn/blog_migrate/c7052e6f9c0402750485450a9626b23b.jpeg)
作者 | 李秋键
责编 | 刘静
出品 | CSDN(ID:CSDNnews)
引言: 相信我们都做过一些图片分类或者是其他分类的项目,我们知道神经网络是在w和b参数调节基础上,使得x与y达到对应输出的效果。比如最经典的Mnist手写字体识别,给一张图片模型判断后将会输出数字结果,比如这样:
![3b964fb6bd3db6ac2e8f8b323c3d35f7.png](https://i-blog.csdnimg.cn/blog_migrate/49b4688dbb5a2e0db75bc622fec08d6a.jpeg)
我们知道大多数生成网络是用的GAN算法,显然他有他自己的优势,
通过对目的的改进,可以变更机率分解建模的变量,使随机变量与具体数据分布尽量相似。在现代的分解建模中的,一般使用统计数据的似然作为改进目的,而GAN创新地用于了另一个改进目的。
首先,引进判断建模(常见建模还包括反对矢量机和多层人工神经网络)。
其次,其改进步骤是在分解建模和判断建模两者之间寻找沃克平衡。
GAN创建的自学构建实质上是分解建模和判断建模两者之间的仿真博弈论。
分解建模的目标是尽量多地仿真、仿真和自学现实统计数据的产于规律性。
判断建模是辨别一个输出统