机器学习的准则_道德机器人; 14机器道德准则

机器学习的准则

我比人工智能更担心人为干扰。 尽管与计算器相比,我们在基本计算上无可匹敌,但从长远来看,我们在评估决策及其影响方面似乎无与伦比。 人脑仍然是已知宇宙中最复杂的机器。 我们可能需要再过一个千年才能准确地重建它。 人类在道德决策方面表现出众,而机器却在与之抗争。

最近的一系列有关复兴伦理学研究的文章中 ,我以非常像阿西莫夫的风格,选择了最关键的14条一般道德准则。 该列表肯定会得到扩展,但是我认为这至少是我们最终应如何向机器解释道德的一个很好的起点。 在本文中,我深入研究了建立道德普遍智慧的过程,并解释了建立实用的自上而下的道德理论的重要性。 这14条规则出现在本文的结尾。

什么是道德?

经过几代人的努力,社会可以学习实际的行为,甚至接受每个人都应遵循某些规则,即使他们不自觉地理解为什么应该遵循这些规则。 大多数人都接受道德准则,但很少有人理解为什么每个人都应遵循道德准则。 问10个人,为什么他们应该做得好,很可能会收到10个不同的答案。

伦理学是人类行动的实践科学,它选择的行动从长远来看将改善我们自己和人类。 道德直觉很可能是因为合作是很合逻辑的事情。 您应该遵循一般的道德准则,因为通过共同的手段可以最好地实现您的利益-同样,当他人允许您有机会实现这些利益时,也同样如此。 道德可以被形容为抛弃我们的人类短视眼前的利益,以实现我们更大,长期的合作利益。

一些读者可能会质疑是否将伦理学称为一门科学,但这在很大程度上是语义学。 它类似于是否将工程学称为科学的辩论。 伦理学对心理学的关系与工程学对力学和物理学的关系相同。 这些领域的功能是系统地处理需要解决的一类问题。 如果说科学,我们指的是旨在达到系统化的演绎和结论体系的理性探究,那么道德就是一门科学。

人类道德与机器道德

值得一问的问题是,不同种类的智力是否需要不同的道德准则。 例如,在大多数情况下,强迫一个人违背自己的意愿工作将是有害的。 但是,机器的意愿由我们直接控制。 无论我们对机器有什么意图,机器都可能将其视为自己的利益。 以正确的方式进行编程,看来我们永远都不能剥夺它任何东西。 但是,它仍然需要了解如何与人类合作,其利益必须符合我们的道德准则。

道德机器人的重要性

像埃隆·马斯克(Elon Musk)和马克斯·泰格马克(Max Tegmark)这样的科学和商业领袖已经向他们所谓的“ 未来生活研究所”投资了数百万美元,该组织致力于创建安全的AI。 有各种各样的可能的情报。 如果我们不谨慎,就有可能创造出有史以来最自私的生活。 有关可能的AI失败的更多有趣信息,我强烈推荐经常在Computerphile Youtube频道上出现的Robert Miles的作品。

我们如何向机器解释什么是好的?

创建通用情报将是将情报暴露于数百万种现实生活中的艰苦过程。 当我们教机器玩“吃豆人”或“围棋”这样的游戏时,我们给机器一个简单的目标,即获得最多的积分,然后让它通过成千上万次试验学习。 最终,它开发出了用于获取最大数量点的最有效算法。 据我所知,这种基于点的系统是我们向机器解释目标的唯一实用方法。 我还没有听说过任何其他描述计算机目标的方法。 我们可能必须将我们的道德准则转化为某种形式的基于积分的系统。

另一个困难的过程将是向机器解释直观的人类概念。 最简单的想法通常被认为是理所当然的,因此最难精确定义。 例如,成为人类到底意味着什么? 该术语可能需要澄清页面,以避免在您失去手臂的情况下智能不再认为您是人类的情况。 甚至人类也不同意人类的真实身份。 只需将自己指向最近的堕胎辩论。 我们将需要解决这些争论,以便机器不会以可能对我们有害的方式处理世界。

自上而下和自下而上的道德理论

我试图创造的是一种自上而下的道德理论(例如,阿西莫夫的三定律,康德的“当务之急”,“微妙的微积分”)。 我认为自上而下的道德理论是任何自下而上的经验学习的必要指南。 当智力面对每个道德问题时,它需要指导原则,或者它可能只是找到解决每个问题的最有效方法,而这可能不是最实际的方法。

我查阅了Wendell Wallach,Stan Franklin和Colin Allen的同行评审论文 ,讨论了称为LIDA的AGI认知模型,作者还表达了最终需要自上而下的理论:

“每个[自上而下的理论]都容易受到某种形式的框架问题的影响—由于需要人类心理学知识,对世界行动影响的认识以及估计初始信息的充分性而导致的计算量。” (第5页)
“最终,将需要一种能够保持自下而上的系统的动态和灵活道德的混合系统,该系统可以容纳各种输入,同时使选择和操作的评估遵循代表我们努力实现的理想的自上而下的原则。” (第6页)
14条人类道德准则

这些规则中的每一条都需要澄清页面,任何自上而下的道德理论也将需要澄清。 我们还将需要经过深思熟虑的程序,以计算诸如利息长期和短期等术语,这些术语在这些规则中经常出现。 我在某些规则后附有6条相应的文章,这将有助于解释该规则背后的原理。

  1. 所有人类都渴望自由追求自己的利益。 ( 第2条
  2. 所有人类都享有社会合作的共同长远利益,因为其他人类允许或帮助追求自己的利益符合任何人类的利益。 ( 第1条
  3. 良好的行为是有助于实现个人的自身利益和/或实现其他个人的自身利益的行为。 ( 第2条
  4. 不良行为是指无助于个人的个人利益,或以牺牲他人的自身利益为代价的行为,有助于个人的自身利益。 ( 第2条
  5. 为了使所有人的自由最大化,人们常常有必要拨出各种短期利益来实现社会合作的更高价值的长期利益。 ( 第2条
  6. 在每个道德问题中,人类都应选择能够实现最大数量利益的行动或行动规则 从长远来看,对于个人而言。 ( 第1条
  7. 如果发生冲突,人类应该选择能够使尽可能多的个人利益最大化的利益或行为规则。 ( 第1条
  8. 可以使社区或全人类满意的行动或行动规则比仅仅旨在满足大多数人的行动或行动规则具有更大的价值。
  9. 无论社会中的每个成员在财富,才干或能力上有多么不平等,每个人的最大利益就是使所有人为社会做出贡献的动机最大化。 ( 第6条
  10. 人类对创造或维护个人利益的重视程度远高于消除利益。 (对于人类来说,苦难比幸福要差得多)。
  11. 尽管为公益事业做贡献可能很好,但强制性善良有可能减少社会合作。 ( 第4条第5条
  12. 人类法的实际目的是建立从长远来看最大程度地提高自由的一般规则。 公正的法律是一条总则,它限制了在长远来看为所有人创造更多自由方面以不切实际的方式行事的动机。 ( 第6条
  13. 既定的人道法有错误,但和平地遵守不公正法律比冒险冒险通过改变不公正法律来破坏社会合作更为现实。 ( 第3条
  14. 根据人道法,每个人都等于一,而每个人都不能超过一。 无论何种情况,在法律上,没有人的利益比别人的利益更重要。 ( 第6条

请通过批评这些规则或扩展此列表来提供帮助。 欢迎改进。

翻译自: https://hackernoon.com/the-moral-robot-14-moral-rules-for-machines-b6088f650605

机器学习的准则

  • 0
    点赞
  • 2
    收藏
    觉得还不错? 一键收藏
  • 0
    评论
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值