1942年,阿西莫夫在短篇小说”Runaround”(《环舞》)中首次提出了三定律:
一 机器人不得伤害人类,或因不作为使人类受到伤害。
二 除非违背第一定律,机器人必须服从人类的命令。
三 除非违背第一及第二定律,机器人必须保护自己。
但后来,阿西莫夫加入了一条新定律:第零定律。
零 机器人不得伤害人类整体,或因不作为使人类整体受到伤害。
一开始,它的作用仅停留在文学层面上,成为人们谈论科幻作品里机器人的一个津津谈论的话题而已。不过随着这几年AI的迅猛发展和VR的拓新,人们也不得不思考未来AI的发展。
从五子棋、象棋,到如今围棋的不可战胜,我们似乎陷入了一个泥潭。我们正在制造一个智力是我们数量级倍的机器,而我们却似乎无法战胜它。
我们开始害怕,AI的过于强大,会不会取代人类的地位。就如同相比其他生物来说的过于强大的人类。
科学家、道德伦理学家试图效仿阿西莫夫为机器制定一些不可逾越的规则,但这其中却又几个严重的问题:1.在一些模棱两可的选择里,机器如何做出正确的选择,我们难以给所有事物一个准确无误的定义,或者说无法;2.一旦机器的能力突破了人类的控制,这些规则对它们还起这作用吗?
不过,也有人展现出乐观的一面。
至少在冯诺依曼体系的AI中,只要遵从电路的严格进行,就不可能真正出现有着自我意识的机器。它可以无限接近,却永远不可能达到,因为它无法做出自己的判断,一切都只是内部程序运行的结果而已,还是一个有规律的程序,即使规律性可能很差。
相比防范日益发展的AI,作为同类的人类似乎更加可怕。