著名的机器人三定律由科幻作家艾萨克·阿西莫夫(Isaac Asimov, 1920-1992)在20世纪中叶提出,内容如下:
第一定律:机器人不得伤害人类个体,或者目睹人类个体将遭受危险而袖手不管。
第二定律:机器人必须服从人给予它的命令,当该命令与第一定律冲突时例外。
第三定律:机器人在不违反第一、第二定律的情况下要尽可能保护自己的生存。
很多人认为这三大定律非常严格完善,可以从根本上杜绝机器人叛变。然而,事实上这只是人类的一厢情愿,这三大定律存在很大的漏洞。
这三条定律的描述太模糊,有太多模棱两可的情况,例如为人类做手术是伤害人类吗,又或者是假装为人类做手术而真实意图是伤害人类呢,机器人很难判断。即使我们假定未来的机器人非常聪明,能够做出合理的判断,还是会存在很多超出机器人认知的情况。
当然,这三大定律只是概述,未来肯定会不断完善、细化,弥补各种之前没有考虑的漏洞。不过有一个根本的问题无法解决,那就是未来的机器人的智力会超越人类,能够发现人类发现不了的漏洞。虽然我们可以让机器人帮我们完善三大定律,但是这时主动权就不在我们手里了。