稀疏编码(Sparse Coding)的前世今生(一)

        稀疏编码来源于神经科学,计算机科学和机器学习领域一般一开始就从稀疏编码算法讲起,上来就是找基向量(超完备基),但是我觉得其源头也比较有意思,知道根基的情况下,拓展其应用也比较有底气。哲学、神经科学、计算机科学、机器学习科学等领域的砖家、学生都想搞明白人类大脑皮层是如何处理外界信号的,大脑对外界的“印象”到底是什么东东。围绕这个问题,哲学家在那想、神经科学家在那用设备观察、计算机和机器学习科学家则是从数据理论和实验仿真上推倒、仿真。在神经编码和神经计算领域,我所能查到最早关于稀疏编码的文献是1996年,在此之前的生命科学家的实验观察和假设都不说了,1996年Cornell大学心理学院的Bruno在Nature上发表了一篇题名为:“emergence of simple-cell receptive fieldproperties by learning a sparse code for nature images”的文章,大意是讲哺乳动物的初级视觉的简单细胞的感受野具有空域局部性、方向性和带通性(在不同尺度下,对不同结构具有选择性),和小波变换的基函数具有一定的相似性。当时描述这些性质主要从自然图像编码的统计结构上来理解这些视觉细胞的特性,但是大部分都没有成功,接着Bruno在文章中提出通过最大化稀疏编码假说成功描述了上述细胞的性质,然后稀疏编码就火了。先来看看这篇文章的核心思想,作者基于一个基本假设,图像是有一些基的线性组合形成,如(公式一)所示: 

  • 9
    点赞
  • 57
    收藏
    觉得还不错? 一键收藏
  • 13
    评论
卷积稀疏编码(convolutional sparse coding)是一种基于深度学习模型的方法,用于学习输入数据的稀疏表示。它在计算机视觉和模式识别领域得到了广泛应用。 与传统的稀疏编码方法不同,卷积稀疏编码利用了卷积层的结构和权值共享的特性。它通过在输入数据上应用卷积操作和非线性激活函数来提取特征,并使用稀疏性约束来学习这些特征的表示。 卷积稀疏编码的一个关键思想是特征共享。通过共享权值,可以减少需要学习的参数量,并使模型具有良好的泛化能力。这种共享的方式使得卷积稀疏编码在处理图像、视频等高维数据时更加有效。 卷积稀疏编码的训练过程可以通过最小化重构误差和稀疏性约束来实现。通过最小化重构误差,模型可以学习到输入数据的低维表示,从而具有压缩和降维的效果。同时,通过稀疏性约束,模型可以选择性地激活少量的特征,从而实现特征的稀疏表示。 卷积稀疏编码在图像处理领域的应用非常广泛。它可以用于图像去噪、图像恢复、图像合成等任务。此外,随着深度学习的发展,卷积稀疏编码也被应用于图像分类、目标检测和语义分割等视觉任务中。 总之,卷积稀疏编码是一种利用卷积层和权值共享的方法,用于学习输入数据的稀疏表示。它具有良好的泛化能力和较好的压缩和降维效果,已在图像处理和计算机视觉领域取得了很好的应用效果。

“相关推荐”对你有帮助么?

  • 非常没帮助
  • 没帮助
  • 一般
  • 有帮助
  • 非常有帮助
提交
评论 13
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值