【CVPR2024教程】推理的鲁棒性:走向可解释性、不确定性和可干预性

a9a4a7dfd955066c80f4ab5bb5f34fd2.png

来源:专知
本文约2000字,建议阅读5分钟
在本教程中,我们提供了一种以人为中心的方法来理解神经网络的鲁棒性,使AI能够在社会中正常运行。

21b80d75904bb0285168954b011f69b2.jpeg

神经网络提供了具有普遍适用性和任务独立性的表示空间,这些表示空间在图像理解应用中得到了广泛应用。图像数据中特征交互的复杂语义已被分解为一组非线性函数、卷积参数、注意力机制以及多模态输入等。这些操作的复杂性引入了神经网络架构中的多种漏洞,包括对抗样本、自信校准问题和灾难性遗忘等。鉴于人工智能有望引领第四次工业革命,理解和克服这些漏洞至关重要。实现这一目标需要创建驱动AI系统的鲁棒神经网络。然而,定义鲁棒性并非易事。简单的对噪声和扰动不变性的测量在现实环境中并不适用。在本教程中,我们提供了一种以人为中心的方法来理解神经网络的鲁棒性,使AI能够在社会中正常运行。因此,我们提出以下几点

  1. 所有神经网络必须向人类提供上下文相关的解释。

  2. 神经网络必须知道它们不知道的内容和范围。

  3. 神经网络必须允许人在决策阶段进行干预。

这三点要求鲁棒的神经网络具有可解释性、具备不确定性量化,并且能够被干预。

我们提供了一个基于概率的事后分析,以实现可解释性、不确定性和可干预性。事后分析意味着决策已经做出。一个简单的事后上下文相关解释的例子如图1所示。对于一个训练良好的神经网络,常规解释回答了“为什么是琵鹭?”的问题,通过突出鸟的身体。然而,一个更相关的问题可能是“为什么是琵鹭,而不是火烈鸟?”这样的提问需要提问者了解火烈鸟的特征。如果网络显示区别在于没有S形的颈部,那么提问者会对所提供的上下文回答感到满意。上下文解释不仅建立信任,还评估神经网络并解释其决策。在更大的背景下,可解释性的目标必须是满足各种水平的专家的需求,包括研究人员、工程师、政策制定者和普通用户。在本教程中,我们详细介绍了一种基于梯度的方法,能够提供上述所有解释而无需重新训练。一旦神经网络被训练,它就像一个知识库,不同类型的梯度可以用来遍历对抗性、对比性、解释性、反事实表示空间。除了解释外,我们还展示了这些梯度在定义不确定性和可干预性方面的实用性。我们将讨论多种图像理解和鲁棒性应用,包括异常检测、新奇检测、对抗性样本检测、分布外图像检测、图像质量评估和噪声识别实验等。在本教程中,我们将审视鲁棒性作为一种以人为中心的衡量大规模神经网络实用性的方法的类型、视觉含义和解释。

1f8d05fc4668bb6ad8dfe28af6e4bcd7.png

教程大纲

本教程由四个主要部分组成:

第一部分:神经网络中的推理讨论一些关于使用分布外(OOD)数据训练神经网络的近期令人惊讶的结果,其结论是,在大数据环境中何时及如何使用OOD数据并不总是明确的。我们将以此作为课程材料的动机。

第二部分:推理中的可解释性介绍每一种可解释性、不确定性和可干预性的基本数学框架。

第三部分:推理中的可解释性和不确定性详细讨论可解释性和不确定性。

第四部分:推理中的可干预性专门讨论可干预性。

第五部分:结论与未来方向总结和探讨未来的发展方向。

每部分的具体内容和讲解者如下所示。

参考文献:

[1] AlRegib, Ghassan, and Mohit Prabhushankar. “Explanatory Paradigms in Neural Networks: Towards relevant and contextual explanations.” IEEE Signal Processing Magazine 39.4 (2022): 59-72.  

[2] M. Prabhushankar, and G. AlRegib, “Introspective Learning : A Two-Stage Approach for Inference in Neural Networks,” in Advances in Neural Information Processing Systems (NeurIPS), New Orleans, LA,, Nov. 29 – Dec. 1 2022.  

[3] Kwon, G., Prabhushankar, M., Temel, D., & AlRegib, G. (2020). Backpropagated gradient representations for anomaly detection. In Computer Vision–ECCV 2020: 16th European Conference, Glasgow, UK, August 23–28, 2020, Proceedings, Part XXI 16,  Springer International Publishing.  

[4] M. Prabhushankar and G. AlRegib, “Extracting Causal Visual Features for Limited Label Classification,” IEEE International Conference on Image Processing (ICIP), Anchorage, AK, Sept 2021.  

[5] Selvaraju, Ramprasaath R., et al. “Grad-cam: Visual explanations from deep networks via gradient-based localization.” Proceedings of the IEEE international conference on computer vision. 2017.  

[6] Prabhushankar, M., Kwon, G., Temel, D., & AlRegib, G. (2020, October). Contrastive explanations in neural networks. In 2020 IEEE International Conference on Image Processing (ICIP) (pp. 3289-3293). IEEE.  

[7] G. Kwon, M. Prabhushankar, D. Temel, and G. AlRegib, “Novelty Detection Through Model-Based Characterization of Neural Networks,” in IEEE International Conference on Image Processing (ICIP), Abu Dhabi, United Arab Emirates, Oct. 2020.  

[8] J. Lee and G. AlRegib, “Gradients as a Measure of Uncertainty in Neural Networks,” in IEEE International Conference on Image Processing (ICIP), Abu Dhabi, United Arab Emirates, Oct. 2020.  

[9] M. Prabhushankar*, G. Kwon*, D. Temel and G. AIRegib, “Distorted Representation Space Characterization Through Backpropagated Gradients,” 2019 IEEE International Conference on Image Processing (ICIP), Taipei, Taiwan, 2019, pp. 2651-2655. (* : equal contribution, Best Paper Award (top 0.1%))  

[10] J. Lee, M. Prabhushankar, and G. AlRegib, “Gradient-Based Adversarial and Out-of-Distribution Detection,” in International Conference on Machine Learning (ICML) Workshop on New Frontiers in Adversarial Machine Learning, Baltimore, MD, Jul., 2022.

dce633b7c033fd72a348b34b0a26f527.jpeg

547d4702949bae22947fa3711af2695e.jpeg

5ed1bb216ec15d280618390576251c5a.jpeg

c11c8d78e5be8b955b420fa4c116a009.jpeg

f62535af24cb056ccbe1a3de40f2a7be.jpeg

8cdae067ea2458565744a9460a48821b.jpeg

e454be57a0b26122a1307e572469dde9.jpeg

ea9e4a7de010fe94f7f1b3feee14e3c4.jpeg

c49f50e99a7f943752ed565f663f464e.png

  • 0
    点赞
  • 0
    收藏
    觉得还不错? 一键收藏
  • 0
    评论

“相关推荐”对你有帮助么?

  • 非常没帮助
  • 没帮助
  • 一般
  • 有帮助
  • 非常有帮助
提交
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值