卷积神经网络特征可视化存在的难点是什么?

1)对于可视化方法,仍存在噪声、稳定性、解释能力有限等问题。

通过对多种可视化方法的实验比较发现,多数可视化方法生成的热力图含有一定的噪声,噪声产生的原因仍没有权威统一的解释。同时,面对不同图像时的可视化效果不尽相同,有些图像可能直接导致可视化方法的失效,而失效的原因尚不清楚,仍有待进一步的探究。此外,面对复杂背景条件的图像、多目标场景、小目标图像等,受限于模型本身在面对这些情形时的性能约束,可视化方法的解释效果并不一定好。未来可能的研究趋势是将可视化方法与其他解释方法的结合,从不同侧面不同角度解释模型,从而缓解单一可视化方法解释效果受限的问题。

2)对于可视化效果的评估,仍欠缺标准统一的评估方法。

目前很难找到适用于大多数可视化方法的评估标准,原因在于许多方法的目标并不相同,也即每种方法对“可解释性”的理解并不相同,导致各种可视化方法的解释结果差别较大。同时,很多可视化方法自身同样缺乏清晰明确的数学与逻辑机理,导致结果难以量化比较。如果可以从“可解释性”的概念出发,统一数个可解释性的标准,那么对于可视化结果的评估也就有了依据。同时,还可以根据可视化方法产生的热力图的特点进行分类评价,每类热力图使用与之适应的评价标准,提升其侧重解释某方面的能力。

3)对于可视化的对象,细粒度的识别模型难以可视化解释。可视化方法多应用于对图像分类、目标定位及场景识别等任务的解释,能够实现对多目标图像中语义级目标的区分。例如,“Cat”和“Dog”虽然同属动物,但是在语义级上属于明显不同的两种动物。而单独对于“Cat”这一动物,实现的不同品种猫的细粒度图像分类,受限于分类网络自身准确性,可视化方法很难找到用于区分目标的细节特征,此时的解释效果非常有限,甚至对于不同的目标可视化效果始终相同。与人们的视觉观察及解释能力相差较远。这一问题或许可以通过视觉解释与语言解释相结合的途径来改善解释效果。对可视化解释难以描述的细微之处,辅助加以自然语言描述形式的解释(比如对猫的颜色、猫耳形状的描述),能够实现更好的解释效果。

4)对于可视化解释的完备性,现有研究中的解释结果与预测结果无法相互印证。

理论上看,一个完备可靠的解释可以使用户从中推理并得到被解释的预测结果,而目前的可视化方法仍不具备这一能力,仅能从预测结果中得到解释结果,而无法根据解释来推断出模型的预测,即两者之间的相互印证关系没有被建立起来。例如,如果可视化方法给出了错误的解释,但这一解释恰好符合用户根据预测结果推测的预期解释,进而使得用户相信了解释的可靠性,这将对其形成误导。此时,若能根据解释结果推断预测结果,发现推断出的预测结果和实际预测结果不相符合,则可通过进一步分析发现其中存在的问题,从而提升用户对可视化方法的信任。

 

  • 0
    点赞
  • 0
    收藏
    觉得还不错? 一键收藏
  • 0
    评论

“相关推荐”对你有帮助么?

  • 非常没帮助
  • 没帮助
  • 一般
  • 有帮助
  • 非常有帮助
提交
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值