稀疏

每一个neural network 学出的hidden  layer就是feature

看到稀疏编码这几个字,很头疼,这究竟是什么意思呢?

后来慢慢知道了,稀疏二字类似于大学线性代数中的稀疏矩阵,就是零很多,真正有用的数字很稀疏。

稀疏编码器:自动决定隐藏层的结点个数,使得提取出的特征很好。输入结点是16个,隐藏层结点也是16个,输出结点16个,那么显然隐藏层结点个数过多了,我们可以设置其中的部分隐藏层结点计算之后的值为0,就是稀疏了。

①目标函数(loss误差)求极小值

Sparsity(稀疏惩罚项)是隐藏层的,输出值,求绝对值之和or绝对值平方之和。如果0居多,Sparsity的值小。如果0少,Sparsity的值大。

③误差(loss=error+sparsity,此公式体现出误差不仅仅是error了,还把隐藏层也考虑进去了。

Loss小的话,要求errorsparsity都要小。Sparsity小,那么只有少数非零项。

评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值