- 博客(3)
- 收藏
- 关注
原创 VAE
GAN直接拟合出来猫的图片对于n维向量的分布,通过对抗学习的方式获得较好的模型效果,这个方法虽然很暴力,但是却是有效的。 VAE则不同,他通过说我希望生成一张新的猫脸,那么这个n维向量代表的就是n个决定最终猫脸模样的隐形因素。对于每个因素,都对应产生一种分布,从这些分布关系中进行采样,那么我就可以通过一个深度网络恢复出最终的猫脸。 我们可以对编码器添加约束,就是强迫它产生服从单位高斯分布的潜在变量...
2019-05-14 15:38:02 407
原创 自编码器
预训练:逐层训练学习压缩表示,去掉解码器后叠加 监督微调:加一个分类器,只调分类器或者微调整个系统(更好) 损失函数:对于高斯分布的数据,采用均方误差就好,而对于伯努利分布可以采用交叉熵,这个是可以根据似然函数推导出来的 两部分权重相等作为约束 降噪自编码器:结构同上,训练不同,输入带噪声的而非原始样本,随机噪声
2019-05-13 17:13:05 171
空空如也
空空如也
TA创建的收藏夹 TA关注的收藏夹
TA关注的人