重新设计机器人决策三原则

机器智能决策新原则

如果机器智能等于人工智能

那么机器智能必须服务于全人类
所以机器人决策三原则太狭隘,要改进

原来的机器人三原则是西方人设计的有很大问题,
第一条:机器人不得伤害人类,或看到人类受到伤害而袖手旁观.
第二条:机器人必须服从人类的命令,除非这条命令与第一条相矛盾。
第三条:机器人必须保护自己,除非这种保护与以上两条相矛盾。

我的设计是,
机器人决策新三原则如下:

  1. 机器智能 为全人类生存的大概率服务 (当前生存利益优先于长远生存利益)
  2. 机器智能 为全人类发展的大概率服务 (长远发展利益优先于短期发展利益)
  3. 如果第二条与第一条有矛盾 优先执行第一条

基于这个观点.全世界的人工智能的知识库, 很有必要有个核心决策原则,

局部领域的人工智能, 不一定要考虑这个原则,
但可以请求 核心人工智能,给出是否可以 继续执行的反馈
核心人工智能 则是帮助决策全人类的重大问题

评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值