本节书摘来异步社区《科学+ 预见人工智能》一书中的第1章,第1.5节,作者:长城会,更多章节内容可以访问云栖社区“异步社区”公众号查看。
“工具”本质,理性批判
《千秒》:您说创新工场在人工智能工程院这一块可能会提供更多的大数据支持,那在这一块创新工场可能的具体执行战略是什么呢?
李开复:我们是在收集很多的语料,比如说大量的中英文对照的语料来做机器翻译,比如说大量网上的图像语料而且又有非常清晰的标注来做物体识别,然后有大量的比如股票交易数据来做人工智能交易,我们会收集各种没有隐私问题的数据来提供给我们的创业者,随着时间的推进,我们可能也会有更多其他的数据,也许这些创业者之间是彼此可以交换的,或者是一起把盘子做大的,我们希望有这样的一个机制,让这么多兄弟能够把数据在没有隐私和版权问题的时候拿出来共享,把整个饼做得更大。
《千秒》:接下来我们来谈谈与人工智能相关的一些争议性的问题,因为人工智能是纯技术性,是编程实现的,在具体的执行过程当中,可能会带来一些安全性或者是伦理性的问题,甚至是法律性的问题,对这个问题的话您怎么看?
李开复:我觉得人工智能就是一个工具,和任何其他的工具,包括网络安全、互联网、电,都是一样的。作为一个工具,“水能载舟,亦能覆舟”。
我们当然需要政府的治理,需要每一个人有自我约束,但是,我不觉得作为一个工具,它和其他的工具有什么特别大的差别,当然有些工具可能是会伤害人命的,比如说汽车可能撞到人,但是无人驾驶的汽车会撞到人,一辆普通的汽车也会撞到人,所以对于这些,怎么样能确保它的安全性,在它上市之前,可能需要做一些措施。
然后对于一些特别大的公司,它手中如果有特别大量的人的各种隐私,怎么能够约束它?如果它不合适地利用这些隐私,伤害到了个人怎么办?这些可能要注意,当然特别重要的就是有伤害人的生命或健康的,其次的是伤害人的隐私等等的,那这些我觉得是政府在法律方面需要关注的,但是我也觉得不用特别地关注。因为人工智能其实也就是一套工具,它并没有自我意识,你开发的过程中可能犯了一些错误,然后会有各种的责任,需要知道怎么样去追究这个责任。比如说,一辆Google的人工智能技术驾驶的福特汽车,在某一个人辅助驾驶的情况下撞到另外一个人,那这个问题是出在司机、汽车还是软件上,肯定是要去讨论清楚的,但是我觉得这在很大的程度上需要政府跟业界的沟通,然后做一个合理的判断,并且要有足够的弹性来作调整,因为刚开始的规定不一定是最完美的。
《千秒》:目前全球好多的企业和机构都在做人工智能,可能较为无序,另外还有一个较大的问题就是,有一种批评认为,算法可能缺乏一些透明度,很多都是封闭的,没有开放,甚至有些机器学习作出的决策人可能都不明白其中的原理,而这有些时候可能就会造成一些事故并导致损失,比如说信用卡申请不下来等问题都出来了。在人工智能发展的透明度和有序性这一块,您认为需要进行监管或者有一套标准来进行规范吗?或者是有一个什么机构来进行管理?
李开复:我觉得新的科技就应该让它先用起来,出现问题再逐渐调整。问题后面肯定会发生的,就像当年支付宝,它也是一个很有突破性的产品,但是我们让它发生了,就带来了巨大的好处。当然新科技也会带来一些挑战,当碰到了挑战再来监管,我觉得这是最明智的做法。因为一个国家如果能更快地让大数据、人工智能跑起来,它就会跑在世界竞争时代的尖端,这些问题应该都是可以之后来想办法处理的。
很多领域里面,人工智能不能解释为什么,或者不能完美地解释为什么得出某个结果,这并不是很大的问题,我觉得不是每一件事情都一定要用人类的逻辑来理解的,比如当我用人工智能做一个投资组合的时候,它讲不出为什么,但是只要每年能给我更高的平均回报,我就还是满意的。所以可能在大部分的领域里面,我们不要太纠结于解释为什么,当然在有些领域里可能还是重要的。如果最终我们要让人工智能解释为什么,还需要更多的研究,我相信这方面是会有突破的,但是需要时间。
《千秒》:还有一个问题是对人工智能发展的恐惧,霍金和比尔·盖茨都提出过人类可能将迎来一次“技术灾难”,您怎么看待他们的这个观点呢?
李开复:我觉得这个“灾难”不是必然的,它的概率是没有办法预知的。今天计算机并没有自我编程、自我修改的能力,它更没有自我意识,也没有这种要求生存或者你死我亡的情况。我觉得很多人因为科幻小说看得比较多,可能会假设机器人聪明了起来,就会开始要统治人类、伤害人类。这个直接假设我觉得是没有科学根据的,当然我觉得这个可能也不能排除。所以我们现在有很多的这种政府方面的监管,公司方面的自律也好、他律也好,都在想办法把这些问题带来的风险降到最低。
我们现在意识到这个问题并开始讨论,我觉得就足够了。如果我们真的要讨论未来会发生的问题,我倒觉得失业的问题大于被机器人统治的问题,需要更快速而且确切击破。所以不如把更多的时间放在解决这一类紧迫而且确定会发生的问题上。当然,少数的人来谈长期潜在的危机我觉得是OK的,但是没有任何必要造成整个人类的恐惧感,因为这样的发展是没有确定的科学根据的。