自编码器

自编码单元
预训练:逐层训练学习压缩表示,去掉解码器后叠加
监督微调:加一个分类器,只调分类器或者微调整个系统(更好)
损失函数:对于高斯分布的数据,采用均方误差就好,而对于伯努利分布可以采用交叉熵,这个是可以根据似然函数推导出来的
两部分权重相等作为约束

降噪自编码器:结构同上,训练不同,输入带噪声的而非原始样本,随机噪声?服从均值为0,方差为?2的正态分布,然后学习没有误差的重构,和没有噪声的样本构建损失函数。更好的学习特征,对噪声鲁棒,恢复更好在这里插入图片描述
在这里插入图片描述
稀疏自编码器:对隐层单元施加L1正则化,是大部分为0,即使在隐藏神经元数量较多的情况下仍然可以发现输入数据中一些有趣的结构。

收缩自编码器:稀疏和收缩的损失函数,收缩自编码器通过两种相反的推动力学习有用信息–重构误差和收缩惩罚(正则项)。收缩惩罚迫使自编码器学习到的所有映射对于输入的梯度都很小,即把输入都降维到一个很小的区域(点附近),而重构误差迫使自编码器学习一个恒等映射,保留完整的信息。两种推动力冲击下,使得大部分映射对于输入的梯度都很小,而只有少部分的大梯度。这样在输入具有小扰动时,小梯度会减小这些扰动,达到增加自编码器对输入附近小扰动的鲁棒性。
从而学习训练数据的稳定表示
在这里插入图片描述

  • 0
    点赞
  • 0
    收藏
    觉得还不错? 一键收藏
  • 0
    评论
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值