关于正确与错误答案区分和评价函数的可解释性思考

关于正确与错误答案区分和评价函数的可解释性思考

通过对问题智能评分的思路进行解析,我们进一步思考一个问题,作为其中关键性的评价函数,它是解释的吗?本文将做出一些思考。

机器学习、深度学习的可解释性成为当下越来越热门的议题。与传统的算法和数学方法不同,算法以数学的逻辑证明为基础,每一步的算法代表一定的意义,因此最终的答案可以明确对与错,进而它是可解释的。但是,机器学习缺不尽然这样,尤其是深度学习的神经网络,它的核心是权重矩阵和参数,尽管代表了一定的意义,但是在可解释性上却大不如传统算法,因此也饱受争议。

那么,在这一次的智能评价的项目中,作为评价函数,它的解释性是怎样的?

这里,我们给出了两种思路:

  • 可解释的,因此应用QA(Question & Answer)模型;
  • 不可解释的

可解释的评价函数

如果要给这个评价函数赋予可解释性,那么评价函数的实现多半要用到QA,这就将问题转化成了另一个大大问题——问题回答。
此时,评价函数就是根据一个问题q,和一段文本T,来在文本T中生成出问题q的答案。

不可解释的评价函数

我们的任务是将不同的考生答案根据标准答案进行划分,区分其中的正负。因此,在此任务上,评价函数的可解释性并不是那么重要。我们重温一下这幅图:
在这里插入图片描述

我们的任务重点在于要找到能够区分P和N的这一条分界线 L,也就是这个划分,因此我们在实现评价函数的时候,不用关心它的表达是什么,可以是一个数值,一段文本,甚至是无意义的一个可以划分的指标就好。
在这样的理解下,我们发现,上一步的问题也不是那么的有意义,也不是要具有可解释的,与其将它看成问题q,我们更愿意把它看作“得分点”。它不一定是问题的形式,甚至可以是数值,或者不可解释的指标。

但是,不可解释也在面临问题

首先,不可解释最最争议的就是它的正确性的证明,算法和深度学习的最大分歧也是在此。
其次,不可解释使当代的智能产品在法律面前显得无能为力,智能无人汽车,智能机器人,在法律问题上根据其行为收到法律的限制。

总之,可解释性是发展的趋势和研究的方向,可是在实用主义的思想下,不可解释亦无可厚非。

  • 1
    点赞
  • 0
    收藏
    觉得还不错? 一键收藏
  • 0
    评论
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值