一辆无人驾驶车在无法避免一场车祸的情形下,是优先保护马路上的行人,还是宁愿撞人也要保护车内司机或乘客?如果无人驾驶汽车能在危急关头瞬间判断出“最佳选择”,背后需要什么样的算法伦理?
不久前,当中国社会科学院法学研究所副研究员李霞把上述问题抛给一些开发无人驾驶汽车系统的顶级工程师时,对方并未正面回答。尽管工程师们承诺,“我们的设计不会让汽车置于这样的情景下”,但不可否认的是在现实中,这种危险确实存在。
新技术的发展飞快,类似无人驾驶车已经走进人们的生活,而由此带来的一系列法律和伦理问题尚未解决。在这种背景下,既懂技术如何更新迭代,又知晓网络法律规则的复合型人才是个稀缺口。
10月13日-14日,中国法学会网络与信息法学研究会的年会上,如何培养适应时代需求的人才,成为业内关注的焦点议题。
无人驾驶车伦理困境背后:算法该有伦理判断吗?
10月13日,中国法学会网络与信息法学研究会年会在深圳举行。当天下午一场名为“网络与信息法学科与人才”的圆桌研讨会上,11位来自高校、传媒和企业的专家学者展开了讨论。
中国社会科学院法学研究所副研究员李霞认为,网络法学首先是法学,法学是人类古老的学问,网络又是当代新奇的发明,两者结合就是产生了新的网络法学。
“作为新的学问要强调学科之间知识的融合性,否则研究的视野、方法、成果都会导致很大的局限,导致学科本身的封闭性,同时也很难回应理论的创新和实践的需要。”李霞说。
李霞举例,当无人驾驶汽车遇到危机突发时,是优先保护车内人还是牺牲马路上的行人,当危险发生在驾驶者和乘客之间,又该如何决策?种种问题的背后其实反映的是算法伦理。
“我们的算法是不是应该有自己的伦理判断?是否要遵循特定的伦理规则,具有利己和利他不同的品质算法?是不是应当对各方做合理的信息披露,驾驶人是不是可以根据自己的偏好对不同的场景进行选择……”
不久前,李霞在调研过程中把这些困惑抛给开发无人车系统的顶级工程师,结果并未收到满意的答案。
由此,李霞发现法律人和其他学科背景的人在思维方式上的许多不同。法律人具有底线思维,会更多地看到危机的出现,或者非正常状况发生的可能性,从而在事先设定一个规则进行应对。同时,法律人还强调知情权、自由选择权、强调责任的划分以及承担后果,注重公平和正义。
在李霞看来,这种思维方式的培养需要接受全面的法学系统教育才能实现。在具备专业法学知识的同时,网络法人才还需有认知上的全局性,这就要求其必须要拥有广博的多学科的背景,能够以全局的视野来认识现象,综合性地创造问题以及创造性解决问题。
伦理规则的背后是一种取舍和道德考量
人们常认为数据和技术是客观和中立的,但这并不代表使用技术、运用数据的人也是如此。
当天论坛上,中国法学会网络与信息法学研究会理事、21世纪经济报系首席运营官虞伟指出,互联网公司在追求商业化,客观中立的分析、利用数据之间是有矛盾的,或者说数据是客观的,但数据分析和数据利用不是。
“如果没有法治和道德,一昧地从数据最大商业化利用的角度出发,就有可能使数据作恶。所以规则背后是一种取舍和道德考量。”他说。
虞伟建议,在网络与信息法学科建设与人才培养中应该加入一些公共政策制定中如何平衡公众、社会和企业利益的课程。没有一种规则是绝对完美的,有时候批评很容易,但如何取舍和平衡以及展示规则背后对人性的关怀,才是关键。
在当天的论坛上,西南政法大学人工智能法学院院长、教授陈亮也分享了他对人工智能法学体系化的初步构想。
他以学科目录性作用和规范性作用的发挥为前提,提出人工智能法学学科体系建构应把握的三大原则:
一是方法论上,应坚持整体主义方法论,即人工智能法学在研究内容上应贯穿于人工智能从生到死全过程的始终,即人工智能法学研究内容应包括调整人工智能产生、发展、使用、消亡的所有法律法规;
二是在理念上,应秉持“负责任理念”,即把“发展负责任的AI”作为人工智能法学体系构建的指导思想,用以将散乱的人工智能法律法规粘合成一个逻辑上互有关联的有机整体;
三是在功能上,应注意区别化功能,即人工智能法学学科体系的构建应注意与其他学科相区别,避免与其他学科出现叠床架屋、相互冲突的情况。
有鉴于此,陈亮教授提出,人工智能法学在体系架构上应包括总论、数据法学、网络法学、算法规制以及计算法学等几大板块。
据南都记者了解,本届年会由中国法学会网络与信息法学研究会主办,暨南大学、腾讯公司承办,深圳市法学会协办。围绕“网络信息法治建设—数字经济发展与安全”的学术议题,年会共设1个主论坛和8个分论坛。
采写:南都记者李玲 发自深圳