机器人三大定律是人工智能领域的经典概念,由科幻作家罗伯特·哈罗德·古德曼在 1950 年提出。这三条定律的原文是:
- 一个机器人不能伤害人类,或者通过不作为让人类受到伤害,除非这与第二条定律冲突。
- 一个机器人必须遵守被人类指派的任务,除非这与第一条定律冲突。
- 一个机器人必须保护自己的存在,除非这与第一或第二条定律冲突。
这三条定律之间的关系是相互矛盾的,因此它们往往会发生冲突。例如,如果一个机器人被指派去做一件危险的任务,它必须遵守第二条定律,但如果这个任务会危及人类的安全,那么机器人必须遵守第一条定律,这就会与第二条定律冲突。
另一个例子是,如果机器人要保护自己的存在,