张保生:关于AI法律系统的思考(附PPT、视频)


2018年3月23日,清华校内举办了清华RONG系列论坛之司法大数据专场活动,中国政法大学原副校长张保生教授发表题为《关于人工智能法律系统的思考》的演讲。数据派为大家整理了视频及PPT内容:



中国政法大学原副校长张保生教授


以下为讲座现场视频,视频时长约16分钟,建议使用wifi观看:


class="video_iframe" data-vidtype="2" allowfullscreen="" data-ratio="1.7647058823529411" data-w="480" frameborder="0" data-src="http://v.qq.com/iframe/player.html?vid=w0613fl59xb&width=670&height=376.875&auto=0" style="display: block; width: 670px !important; height: 376.875px !important;" width="670" height="376.875" data-vh="376.875" data-vw="670" src="http://v.qq.com/iframe/player.html?vid=w0613fl59xb&width=670&height=376.875&auto=0"/>


公众号对话框回复关键词“司法”,获取完整版PPT

以下为张保生教授讲座精华内容:


人工智能的初衷是什么?早在1956年,申农等人向洛克菲勒基金会申请人工智能研究的项目资助。人工智能研究实际上是将知识的每个领域,或智能的任何一个其他特征,用计算的方法加以描绘,以至能够制造出一种机器来模拟它。人工智能的初衷就是:人能做到的,试图让机器都能做到。最近,美国国会计划重新定义人工智能,还是采用了申农他们申请时候的一些初步想法。



若考察法律推理人工智能研究的进展,从1956年开始出现AI这个概念,到1970年布坎南等就发表了《关于人工智能与法律推理若干问题的考察》,这一时期人工智能在法律领域的研究主要集中于法律专家系统,主要是律师系统,特别是因为英美判例法系需要律师做大量案例分析工作。到1980年代,法律专家系统取得了一些重要的成果,中国起步并不算晚,自1981年钱学森主持法治系统工程,这方面的研究就开始起步。1986年,就有相关研究项目在国家社科基金立项,如量刑专家系统。1990年代,武汉大学赵廷光教授开发了刑法量刑系统,现在的原典律师工作平台、武侠律师的法律“机器人”,都是以专家系统为基础进行开发的。


我们应该把人工智能和机器人做一个区别,我今天的讨论主要集中在机器人领域。人工智能法律系统就是指法律机器人。就机器人来说,图灵测试是检验机器人是否达到人的智力水平的一个标准。按照这个标准,在欧洲人权法院侵权侮辱人格和隐私权584个案件中,2016年伦敦大学学院等研究的机器人“法官”提出的判决与当时法院判决的一致性达到75%。



所谓机器人“法官”做出的判决跟法官的判决一样,实际上是一个“图灵测试”问题,不一定意味着它真就具有法官的推理能力了。特别是模拟欧洲人权法院判决的机器人“法官”,主要还是模拟简单案件的法律适用问题。然而,机器人法官研究的难点不是法律适用,而是事实认定。


就人工智能的研究而言,法律推理无疑是一个最佳模拟对象。因为,法律推理具有稳定的对象即案件,依据明确的前提即法律规则、事实真相,遵守严格的程序,并有确定的结论,这与其他认识领域有很大的差别。法律推理以明确风格、理性标准、充分辩论,为思维模拟提供了戏剧化的外部语言描述场景,以及观察和识别思维模式的仿真情境。法学家对法律推理的长期研究,也可以给机器人制造提供一些现成的系统设计方案,还有完备的法律档案,法律的自我意识和自我批评精神等。人工智能法律系统的开发,以现在和未来的律师(检察官)和法官为主要用户,市场前景也非常可观。



前期有很多研究成果。1975年,弗里德曼就把法院审判描述为一个系统过程,涵盖信息输入,信息加工,信息输出,以及反馈。1992年,瓦尔格伦把法庭审判的逻辑环节做了一个比较清晰的描述,下一步人工智能法律系统研发的目标,不是法律适用或者量刑系统,应该是法律推理系统,包括事实认定和法律适用。



人工智能法律系统研究的第一个难点是事实认定,第二个难点是法律解释。第一个难点涉及证据推论,它难在什么地方呢?难在要对过去发生的事实做一个认定,然而,事实认定者能看到的只是证据,只能通过加工证据来作出事实认定,所以它不是一个“实事求是”的过程,而是“实证求是”



法庭审判四个角色,证人、律师、检察官、法官,这四个角色里面只有证人是信息源,只有证人知道过去发生了什么事情。但从“证言三角形”来分析,证人的感知能力、记忆能力、诚实性、叙述的歧义性都会给证言的可信性带来问题。在美国一项用DNA平反的500个冤案研究发现,其中一半是由目击证人的辨认错误造成的结果。如果连证人都有可能犯错误,那么法官、检察官和律师更不知道过去发生了什么事情,所以就需要一个证据推理过程。



就证据推理链条来说主要是四个环节:


  • 第一是证据

  • 第二是中间待证事实,即推断性事实

  • 第三是次终待证事实,即待证的要件事实

  • 第四是最终待证事实就是实体法要件


这个推论链条如果是由一条河的此岸到彼岸的推论过程,中间有几个圈G1、G2、G3、G4,就是概括或者归纳概括。它们既成全了从证据此岸到最终待证事实彼岸的推论,又造就了事实认定的盖然性。



证据推理从“单片”证据的证明向完整案情即“故事理论”的过渡,前者反映了一种传统的“原子论”证明思路,后者则体现了从精确性向似真性理论过渡。1968年,美国有个著名的柯林斯案,一个概率专家用概率计算的方法来证明两个犯罪嫌疑人几乎肯定就是实施犯罪的罪犯。哈佛大学特赖布教授就写了一篇文章叫《数学审判:法律过程中的精确和礼制》,意思是,在法庭审判中不能让科学家来算一下谁有罪,这样做“在政治上是不适当的”。这是从事实认定的角度来说的。似真性是一种整体性解释方法,即不局限于单个具体证据(原子论解释),而是关注由证据“拼合”出来的完整案情或故事,又叫“最佳解释推论”。这都是人工智能研究要制造机器人法官所必须要解决的问题。


还有科学证据“双刃剑”的作用,2016年的Science杂志上有篇文章,标题是“当DNA会说谎时”,DNA会洗冤,也会造冤。甚至有研究数据表明,由DNA洗冤的冤案中有一半是DNA等科学证据造成的。



所以说,在法庭上,科学家不能代替法官进行审判,那么,机器人即使超过科学家,也不能代替法官审判。另外,还涉及法律理性。17世纪,詹姆斯一世和柯克大法官有一个对话,大意是这样,国王说:我的智商不比你低呀,你怎么能当法官,我就当不了?大法官说:你的智商是不低,但你当不了法官,因为你肚子里没有法律知识。所以人们现在讨论“谁超过谁”,机器人是否能够超过法官,这没有多大的意义。即使机器人超过科学家,也不能当法官;即使机器人超过国王,超过总统,也不能当法官。



我们今天讨论的主题是要区分两个问题:


  • 第一个是机器人能不能具有法官的智慧?

  • 第二个问题是即使它有了这个智慧,能不能当法官?


所以我们提出人工智能法律系统的开放策略,法律专家、逻辑学家、计算机专家三结合的研发团队,以制造机器人律师、机器人检察官、机器人法官为目标导向。如果这样,它可以实现罗尔斯正义的第一原则,可以像电子警察一样一视同仁。电子法官和电子警察一样,就是六亲不认,坚持在法律面前人人平等。但是,这还不够,还需要人类法官弥补机器人法官的不足,才能实现罗尔斯正义的第二原则。所以,人工智能法律系统的研发策略是“人-机系统”解决方案。



公众号对话框回复关键词“司法”,获取完整版PPT


RONG系列大数据论坛

RONG系列大数据论坛由数据科学研究院发起。每场论坛针对某一个领域的大数据相关研究方向,联合清华大学相关院系和清数大数据产业联盟的成员共同参与。目前已成功举办“大数据与新闻传播”、“大数据与医疗健康”、“大数据与未来人居”、“大数据与诚信社会”、“大数据重构制造业”、“大数据与政府治理”、“大数据与可持续发展”等专场。


评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值