UFLDL(五)自编码算法与稀疏性

     新教程内容太繁复,有空再看看,这节看的还是老教程:

     http://ufldl.stanford.edu/wiki/index.php/%E8%87%AA%E7%BC%96%E7%A0%81%E7%AE%97%E6%B3%95%E4%B8%8E%E7%A8%80%E7%96%8F%E6%80%A7

 

     之前讨论的神经网络是在有监督的学习中的应用,而自编码神经网络是一种无监督的学习算法。它的特点是使用了BP,并且把输入值当作目标值。

     当隐藏层单元的个数小于输入的个数时,相当于完成了降维,而当输出时,又相当于重新恢复。

      

      为了给隐藏单元加入稀疏性限制,可限制隐藏单元的平均活跃度,让其接近于0:

      

     在优化目标函数时,可通过加入惩罚项来对其进行限制(类似于防止过拟合的方法):

     

     里面的那个式子叫相对熵,它的性质如图所示:在两变量相等时值最小为0;随着两变量差异变大值也递增。因此,

最小化这一惩罚因子具有使得 \textstyle \hat\rho_j 靠近 \textstyle \rho 的效果。

     

     总体代价函数可如下所示:

     

     结合前面的后向传播算法,第二层的残差可替换为:

     

      关于替换的推导,可参考:http://blog.csdn.net/itplus/article/details/11449055

     关于自编码和稀疏编码,可参考:http://blog.csdn.net/on2way/article/details/50095081以及http://blog.csdn.net/on2way/article/details/50389968

     

转载于:https://www.cnblogs.com/573177885qq/p/5298134.html

评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值