【Deep learning vs BPL】思考:complex => simple => rich

在12月10日以来,science刊登这篇文章《Human-level concept learning through probabilistic program induction》.

首先,不得不对这篇文章产生崇高的敬意,基于此,我立马用google搜索了该文一作, Dr. Lake。 从技术上来将,是贝叶斯学派的及其学习文章,从内容上来讲是一篇认知科学的文章,她用简单的symbolic诠释了人类的认识过程的三要素,也是贯穿全文的三要素: compositionality, causality, and learning to learn. 超图灵以及拥有创造力的表现让一部分人们认为human-level learning 才是人工智能的关键。

然而,我必须要argue这篇文章的一点是,文章中所有的background set or raw alpabets 这些数据哪里来,生活中吗?一张图片能这么简单么,raw data 复杂了之后这样还有效吗?由简单(primitives)-> 元件(parts)-> object -> exemplars,这样一条路线符合电子工程设计路线,可能是人工智能也会走的路线。但是,..... 

记得Li Fei Fei 在今年3月份的TED上讲,deep learning: 我们用上亿张图片教会了计算机see objects, 但是还会出错,所以有的人在提高算法,让计算机出现更少的错误。然而,这仅仅是第一步而且还没有走完。

回顾一下,deep learning这些年干的一件事就是从复杂的数据中提取简单的东西。也就是说的deep learning通过分层记忆 模仿了人脑处理和分析数据的能力,提取有用的简单的信息(虽然比较慢)。BPL是通过分层的先验知识模仿了人脑的认识过程。然而由复杂信息到简单信息再到简单信息的再拓展,乃至再创造,我想BPL(deep architecture)是deep learning的下一步了吧!这是引领deep learning进入下一个时代的方向标了吧!

complex => simple => rich...


 

  • 0
    点赞
  • 0
    收藏
    觉得还不错? 一键收藏
  • 0
    评论
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值