因果系列文章(2):因果推断初探

以下内容仅仅是作者因个人兴趣而对因果推理领域的非常粗浅的学习笔记,难免充满低级的谬误和肤浅的认识。作者已经在表达上尽量直白。如有错漏请及时指教。

深度学习不是万能的

人工智能发展至今,经历了无数次的浪潮,终于在深度学习爆发的时代迎来了新的革命。人们惊讶地发现,人工智能已经强大到可以打败最高水平的人类围棋选手,可以通过面部识别技术精准地抓捕潜逃的罪犯,可以从成千上万首诗歌中学习语法,并毫无破绽地创造出新的诗句,其水平与古代诗人相差无几。在新冠肺炎肆虐的2020年,人工智能更是大显身手,在疫情预测、人流管控、社区配送、病源追溯、新药研发等方面都起到了至关重要的作用,极大地解决了极端恶劣的条件下超大规模人口的城市治理问题。

在这种种的应用背后,先进的深度学习技术和充足的数据和计算资源功不可没。但同时,人们也越来越多的发现,许多人类能够轻易理解和掌握的技能,对于人工智能来说仍然举步维艰。这一点在机器人领域尤为突出:借助人工智能的进步,机器人已经可以实现精准的环境感知,构建复杂的地图,甚至像朋友一样与人无障碍地沟通。然而,许多人类认为非常简单的日常操作,对于机器人来说还有很大的距离。这其中的原因有很多,但最重要的一点是,虽然机器人的感知能力已经取得了很大的突破,但机器人的大脑,也即“决策”能力还尤为不足,这导致机器人在面对相似而不相同的任务时难以适应。比如,通过电机、减速器等硬件设备的提高,机器人已经能够精准地执行轨迹完成动作、并精确地施加力和力矩,但由于缺乏适应性或泛化能力,机器人仍然难以执行复杂而精巧的操作。比如握杯子这个任务,由于杯子的形状大小各异,最佳的抓取点不尽相同,所适用的力可能也不同,机器人即便学会了如何抓取一个杯子,也很难学会抓取所有的杯子,这极大地制约了机器人走进我们的千家万户为我们服务:试想一下,学个抓杯子就如此费劲了,你还指望机器人替你干什么?

图1:人类认为简单的操作任务,对于机器人来说却不容易(左:拾取鸡蛋,中:穿脱衣服,右:卡扣零件)

另一方面,面对复杂多变的任务序列,人类能够轻易地知道该做什么,不该做什么,先做什么后做什么,这是基于人类长期的知识、经验和习惯形成的。比如泡一杯咖啡,我们一般先加咖啡粉、然后注入开水,然后再加一点奶,最后加一块方糖。这个顺序并不是绝对的,我们也可以先加糖再加奶,或者先加开水再加咖啡粉,这似乎都没关系。但是我们很少先加奶,再加开水,再加咖啡(这样冲出来的咖啡肯定不好喝)。可是这一大套逻辑,要让机器人理解,那就不那么容易了。机器人不知道,先加开水的原因是因为开水才能把咖啡粉冲泡开,而牛奶冲不开。诸如此类的例子,还包

  • 1
    点赞
  • 4
    收藏
    觉得还不错? 一键收藏
  • 0
    评论

“相关推荐”对你有帮助么?

  • 非常没帮助
  • 没帮助
  • 一般
  • 有帮助
  • 非常有帮助
提交
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值