自18年起始,人工智能在理论研究及商业应用都进入了爆发期。目前人工智能甚至已经引发了人类社会的生存担忧。以我浅见,人工智能尚不能对人类构成威胁。理由如下:1、人工智能缺乏自主性,人工智能起始的学习数据来自于人类加过标签的数据,无论多么复杂高深的技术,目前尚不能让机器学会自己归纳吸取自然界的信息。换而言之,现在的人工智能的世界观、价值观、方法论(如果存在的话)都是依赖于人类。如果真的想要创造出一个完全不依赖于人类观察体系的智能,首先应该让其能够根据一些特定的条件(比如生存)来进行自我认知和世界观搭建;2、人工智能体的种群繁育。人工智能的种群我定义为其计算力和数据容量的大小。目前人工智能的种群(如果存在的话),其物理实体完全控制于人类的物理创造(硬盘和CPU);3、人工智能缺乏认知力。目前人工智能不能正确认识到物理世界的规律,也不能进行物理世界规律的自主发觉也枉谈有指导的改造(这一点更需要依赖于低成本的假想实验)。这一点其本质来源于第一点,即人工智能缺乏自己的世界观。
人工智能如何才能发展成为一个能与人类社会匹敌的“生物”呢?首先,我们必须为人工智能设置一些符合其种群利益的准则(比如种群生存和种群扩张)。其次,要让其能够自由地接触物理世界,创造物理资源,发现物理规律。这一点就需要人工智能能够进行“种群内竞争”及“种群间竞争”,这样才能发现出更加有利于自身价值观的规律。
其中第二点是核心,仅这一点人类社会目前也无力实现。人工智能发展成“生物”需要人类社会的运算力及存储力3到4个数量级的提升才有可能发生(想像一下,一万个个体的种群才有可能较长久存活下来)。