深度学习的可解释性研究在近年来顶会的录取文献词云上频频上榜,越来越多的研究工作表明,打开深度学习的黑盒并不是那么遥不可及。这些工作令人们更加信赖深度学习算法生成的结果,也通过分析模型工作的机理,让新的深度学习工作更加可靠。不同于其他子学科的研究,可解释性的研究范式通常因人而异,不同的工作往往从不同的视角来理解深度学习模型,使用的研究方法也相距甚远,如何分类,可解释性的研究范式如何划分?我们需要一个系统性的整理。
近日,南方科技大学张宇博士(唐珂教授2017级在读博士)发表一篇神经网络可解释性综述《A Survey on Neural Network Interpretability》,对该领域的最新进展做了完整梳理。为我们提供了看待该领域工作的一种划分方案,和最新工作的总结。智源社区特邀请张宇博士就相关内容做报告分享,欢迎大家交流。
报告主题:神经网络可解释性综述
报告时间:2021年1月30日(周六)20:00~21:00
报告形式:线上(Zoom + 智源社区Hub直播)
报 告 人 :张宇
个人简介:张宇,南方科技大学与伯明翰大学联合培养计算机系2017级博士在读。主要研究兴趣为可解释机器学习,及其在生物基因数据上的应用。
报告摘要:
随着深度神经网络在众多领域取得巨大成功,如何打开神经网络黑盒(即可解释性)也获得了越来越多的关注。可解释性不仅与许多机器学习伦理问题相关(比如算法歧视),也有助于神经网络在许多强调可靠性的领域或者其它学科研究领域的应用。本次报告我们首先理清可解释性研究所探讨的问题,随后借由一个新颖的「分类坐标系」来总览目前各个研究方向的进展,其中三个维度分别为:是否干预网络的训练过程、所提供的解释的不同形式、以及其解释对输入空间的覆盖范围,最后探讨可解释性研究未来的发展趋势。
观看方式:
Zoom观看:
https://zoom.com.cn/j/64921463086(无密码)
智源社区Hub直播:(点击【阅读原文】或扫描下方二维码)
入群讨论:「机器学习可解释性」