人工智能技术自发展伊始就与人有着千丝万缕的联系

  人工智能产生的道德伦理风险
  人工智能技术自发展伊始就与人有着千丝万缕的联系早在1950年,美国控制论创始人维纳(Norbert Wiener)认为机器人技术会从善还是作恶充满不确定性但机器人将代替人类从事工作,或许会造成人脑的“贬值”西方学者对人工智能可能产生的道德伦理风险进行了较为深入系统的研究和探索。
  第一,对人工智能技术导致劳动者失业形成新的社会不公、技术鸿沟等问题的探讨不少西方学者认为人工智能造成大量失业社会贫富差距增大等风险。如赫拉(Yuval Harari)认为随着技术的进化,大多数人因自身作会被人工智能替代而沦为“无用阶级”,只有少数握技术和资源的精英阶层会进化成超级人类,社会阶层固化、极化。对如何更好地保障人的生存发展权利,休斯(James Hughes)等学者提出通过税收和财富公共所有权建立全面基本收入制度,以应对智能技术造成的失业和社会不公。
  第二,对人工智能技术不确定性伦理风险问题的辩论。“究竟谁应该对机器行为承担责任”成为日益严峻的责任伦理问题。一些学者主张设计者、制造者、编程者和使用者应对机器人的社会后果进行控制监督,强调机器人工程师的伦理责任。
  另外一些学者主张以道德嵌入的方式来设计算法,使机器成为内置伦理系统的道德体,以防范人工智能在设计和应用阶段产生的伦理风险。2009年,美国学者瓦拉赫(Wendell Wallach)和艾伦(Colin Allen)在合著的《道德机器:教导机器人分辨是非》一书中,对如何设计道德机器做了较为系统的分析。然而,道德算法面临价值选择与冲突。人类社会存在多种道德规范和伦理原则,各体系间难以通约,以何种道德规范设计算法成为问题。
  此外,设计者的伦理诉求也非一元,在设计道德机器时如何进行价值取舍同样成为问题。基于此,一些学者如布赖森(J. Bryson)等就如何进行价值排序、解决价值冲突、寻求普遍伦理共识作为设计道德机器的理论框架进行了探讨,他们普遍将机器对人类无害且友善作为首要的伦理原则。
  第三,对人工智能技术滥觞突破传统人类道德伦理界限的担忧。除了上述问题,一些学者对下述问题表达了担忧。人对智能技术的过度依赖,容易导致技术霸权和技术奴役,造成社会不确定性风险和危机;护理机器人的应用存在物化老人、幼儿,弱化或侵犯其尊严、自由、隐私等风险;自主作战机器人的应用存在打破国际社会法律与规约,增大引发地区性冲突与战争可能性以及大规模杀伤的风险。

  • 0
    点赞
  • 0
    收藏
    觉得还不错? 一键收藏
  • 0
    评论
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值