1.GAN新范式
数学角度,关于生成式对抗网络对收敛性描述为:假设生成模型和判别模型都有足够的性能的条件下,如果在迭代过程中的每一步,判别网络都可以达到当下在给定生成模型时的最优质,并在之后在更新生成模型,那么最终生成数据的概率分布就一定会收敛于自然数据的概率分布函数。
注意⚠️:收敛性描述已经被严格的数学证明。
不论是损失敏感度生成式对抗网络LS-GAN,还是沃瑟斯坦生成式网络W-GAN,其改进的核心
在于
克服判别模型具有无限可分能力时,生辰模型容易出现梯度弥散的现象
2.深度复卷积神经网络
我看到这个标题的时候,我真的有点感慨万千;
吾生也有涯,而知也无涯。以有涯随无涯,殆已!已而为知者,殆而已矣!为善无近名,为恶无近刑,缘督以为经,可以保身,可以全生,可以养亲,可以尽年。
预处理及特征工程包含滤波增强等处理,以及根据无力与统计特性进行特征提取与筛选(如降纬处理的流性降纬、PCA降纬等),处理完成后便可以建立复数域
(即空域)到实数域
(即特征域)的“映射”,即输入中的每一个位置或“像素”可由特征域上的一向量进行描述或刻画,通常这一步处理的好坏取决于对(空域)数据先验对认知;随后的(特征)数据架构便基于特征域来实现为彩图输出。
- 问题这种处理方式将数据从复数域到实数域的转化过程中,是否有信息损失?信息损失是否影响网络的性能?能否直接在复数域上对数据进行输出,以削弱对数据中某种先验(物理及统计特性)对依赖性?