人工智能开发中的嵌入式伦理

人工智能开发中的嵌入式伦理

在新的医疗技术开发中,越来越多地使用AI(人工智能),这需要对道德方面给予更多的关注。慕尼黑工业大学(TUM)的一个跨学科团队倡导从新技术开发过程的一开始就整合伦理。医学和健康技术伦理学教授Alena Buyx解释了嵌入式伦理学方法。


近年来,围绕AI研究中更加强调伦理学的讨论大大加剧,以至于有人可能会说“伦理学炒作”,德国和世界各地的许多委员会,例如德国伦理委员会或欧盟委员会人工智能高级专家组对此做出了回应。它们都是一致的:在基于AI的健康技术的开发中需要更多的道德规范。

但是,对于工程师和设计师来说,实际情况如何?具体的解决方案仍然很少。在与TUM的两个综合研究中心进行的联合试点项目中,慕尼黑机器人与机器智能学院(MSRM)及其所长Sami Haddadin教授以及慕尼黑社会技术中心(MCTS)与RuthMüller教授,研究人员想尝试嵌入式道德方法,并于7月底在《自然机器智能》上发表了他们的建议。

嵌入式道德方法到底意味着什么?

从一开始,通过将伦理学家整合到AI开发团队中,就可以使伦理学成为研究过程中不可或缺的一部分。例如,他们定期参加团队会议,并对某些问题产生某种“道德意识”。他们还提出并分析特定的道德和社会问题。

医学和健康技术伦理学教授Alena Buyx在新的AI健康技术的开发过程中倡导“嵌入式伦理学方法”。
在实践中是否有此概念的示例?

Geriatronics研究中心是MSRM在加米许-帕坦克辛(Garmisch-Partenkirchen)的旗舰项目,正在开发机器人助手,以使人们能够独立生活。该中心的举措将包括建造样板房,旨在尝试住宅概念,老年人与机器人共享居住空间。在与参加工程师的联席会议上,应注意的是,在单元的任何位置(门少或房间单独)使用开放概念布局的想法将使机器人具有较大的运动范围。但是,对于老年人来说,这种生活观念可能会令人沮丧,因为他们习惯于拥有私人空间。一开始,工程师们并未对此进行明确考虑。


 
这种方法听起来很有希望。但是,如何在开发新的AI技术时如何避免将内在的道德规范转变为道德规范的清洗工作,为公司提供一种在安全方面的舒适感呢?

这是我们无法避免的事情。关键是相互开放和倾听的意愿,目的是找到一种共同的语言,并随后准备有效地实施道德方面。在TUM,我们处于实现这一目标的理想位置。MSRM的主任Sami Haddadin教授还是欧盟人工智能高级小组的成员。在他的研究中,他以人为中心的工程概念为指导。因此,他从一开始就支持嵌入道德的思想。但是有一点可以肯定:光是嵌入式伦理就不会突然使AI“转变为伦理”。最终,这将需要法律,行为准则
 

  • 1
    点赞
  • 0
    收藏
    觉得还不错? 一键收藏
  • 0
    评论

“相关推荐”对你有帮助么?

  • 非常没帮助
  • 没帮助
  • 一般
  • 有帮助
  • 非常有帮助
提交
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值