科学家呼吁关注人工智能和神经技术四大伦理问题(下)

《自然》杂志发表了由哥伦比亚大学、中科大、谷歌等机构的科研人员联合撰写的文章,围绕人工智能和神经技术探讨了四方面的伦理问题。该文主要内容如下:

四大关注领域

(2)能动性和身份认知。一些通过植入大脑的电极接收深层大脑刺激的人士报告,他们感觉到自己的能动性和身份认知发生了改变。在一项2016年的研究中,一名使用大脑刺激器治疗抑郁症长达七年的男子在小组座谈9中报告,他开始怀疑自己与其他人互动的方式(例如说一些他回过头去想时认为不合适的话),究竟是刺激装置导致的还是抑郁症导致的,以及这是否反映了关于自己的更深层次的东西。他表示:“它让很多事情变得模糊,坦白说,我甚至都不确定我自己是谁了。”

神经技术能够明显扰乱人们对身份和能动性的认知,并动摇关于自我本性和个人责任(法律责任和道德责任)的核心假设。

也许通过使用“自动完成”或“自动纠正”功能,机器学习和大脑接口装置能够更快地实现意图和行动之间的转换,而这可能会导致人们最终做出一些自己无法接受的事情。如果人们能够跨遥远的距离通过思想控制相关装置,或如果多个大脑能够连接在一起协同工作,那么我们对自我身份和行为的理解可能会被扰乱。

随着神经技术的发展,企业、政府和其他人开始努力赋予人们新能力,但个人身份(我们的身体和精神的完整性)和能动性(我们选择我们的行动的能力)必须作为基本人权受到保护。

我们建议在国际条约中添加保护此类权利(“神经权利[neurorights]”)的条款,例如在1948年的《世界人权宣言》(Universal Declaration of Human Rights)中添加相关条款。但这可能还不够,国际宣言和法律仅仅只是国家之间的协议,即便是《世界人权宣言》也没有法律约束力。因此,我们提倡制定国际公约来定义与神经技术和机器智能相关的禁止行为,这类似于2010年《保护所有人免遭强迫失踪国际公约》(International Convention for the Protection of All Persons from Enforced Disappearance)中所列的禁止事项。相关的联合国工作组可以审查所有签约国对公约的遵守情况,并在需要时建议实施制裁。

此类宣言还必须保护人们接受教育的权利,以便他们了解关于神经技术的可能认知和情感影响。目前,知情同意书通常只关注手术对身体带来的风险,而没有提到相关装置对情绪、性格或自我意识的可能影响。

体能智能增强。如果一个人在身体或大脑功能方面存在缺陷,则往往会遭遇偏见。采用增强型神经技术(例如允许人们从根本上增强自己的忍耐能力、感知能力或心智能力的神经技术)可能会改变社会规范,引起是否能平等享有这类技术的问题,并产生新形式的歧视。

(3)武器竞赛。最近几年,我们听到DARPA和美国情报先进研究计划署的员工讨论相关计划,为军人和分析人员提供增强意识能力(“超级智能代理”)。这些可以被用于战争环境以及更好地解密数据流。

我们所画出的任何线都不可避免地是模糊的,因为很难预测哪些技术会对人类生活带来负面影响。但我们主张在国际和国家级别制定相关指导方针,对可以实施的增强型神经技术设置限制,以及定义可以使用的背景,正如对人类基因编辑所做的那样。

隐私权和个人意识在某些文化中受到重视的程度高于在其他文化中受到重视的程度。因此,必须在文化特定的背景下做出监管决策,并同时遵守一般权利和全球指导方针。此外,彻底禁止某些技术只会让这些技术转入地下,因此,确定特定法律法规的工作必须包含制定有序论坛来实现深入公开的辩论。

此类工作因从许多达成国际认同和在国家级别将公众意见纳入科学决策的前人工作吸取经验教训。例如,在第一次世界大战后,1925年会议带来了日内瓦协议的制定和确立,这项公约禁止使用化学和生物武器。类似的,在第二次世界大战后,联合国原子能源委员会建立,用于处理与将原子能源用于和平目的以及控制核武器扩散相关的事宜。

我们特别建议对神经技术在军事目的上的使用进行严格监管。出于显而易见的原因,任何暂停都应是全球性的,并得到联合国领导的委员会的支持。尽管此类委员会和类似努力可能无法解决所有增强问题,但它们提供了可能的最佳模型来公开确认对限制的需求,以及对开发和实施某项技术广泛征求意见的需求。

(4)歧视。当科学或技术决策是基于定义狭隘的一组系统化、结构化或社会概念或规范时,得到的技术可能会让某些团队受益,并让其他团体受到伤害。一项2015年的研究发现,借助谷歌的广告算法发布面向女性用户的招聘启事时花费比面向女性用户的照片启事费用要低。类似的,ProPublica调查于2016年表明,美国执法机构使用的算法错误的预计黑人被告更有可能比具有类似犯罪记录的白人被告再次犯罪((go.nature.com/29aznyw)。此类偏见可能会植入神经设备中。的确,检查此类案例的研究人员表明以数学严谨的方式定义公平十分困难。

应对技术中的偏见的可行步骤已经在业界和学术界进行讨论。此类持续的公开讨论和编队对于形成问题偏见的定义而言是必要的,以及更广泛的规范性。

我们提倡采取应对措施来制止偏见成为机器学习的规范。我们还建议可能的用户群体(特别是已经边缘化的用户)在设计算法和设备时发表意见,作为确保偏见在技术开发的第一阶段得到解决的方式。

负责人的神经工程

其中许多建议的背后是呼吁业界和学术界的研究人员对设计能够带来此类变化的设备和系统负起责任。这样一来,他们能够制定已经为负责创新制定的框架、

除上文提到的指导原则外,英国工程与物理科学研究理事会和材料发现中心就提供了一个框架来鼓励创新者以“推动…社会需要并符合公众利益的科学和创新机遇”的方式来“预计、反应、参与和行动”。在人工智能领域中解决这一问题的各种努力中,IEEE标准协会在2016年4月制定了全球道德计划,旨在将道德方面嵌入所有人工智能和自动驾驶系统的设计流程中。

历史数据表明,对营利的探索通常会在企业世界胜过社会责任,即使是在个人层面,大部分技术人员的出发点都是让人类获益,他们可能会遇到没有准备遇到的复杂道德困境。我们认为这种思维模式可以改变,而设备生产者可以通过将道德行为准则嵌入业界和学术界来更好地做好准备。

其中第一步是让工程师、其他技术开发人员和学术研究训练人员在其加入公司或实验室的标准培训中接受道德培训。员工应被教授更深入地思考如何追求可能对社会有积极贡献的进步及部署类似战略,而不是往破坏的方面发展。

此类方法基本上可以遵循医疗行业中使用的方法。医学生被教授关于患者保密性、不伤害原则及其对利益和公正的责任,并要求宣誓来遵守最高专业标准。

神经技术的可能临床和社会好处是广泛的。为了利用这些好处,我们必须以尊重、保护和实现人类最佳利益的方式指导这些技术的发展。

  • 0
    点赞
  • 2
    收藏
    觉得还不错? 一键收藏
  • 0
    评论

“相关推荐”对你有帮助么?

  • 非常没帮助
  • 没帮助
  • 一般
  • 有帮助
  • 非常有帮助
提交
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值