硬核!IBM对「神经网络鲁棒性」的理论分析

本文介绍了IBM关于神经网络鲁棒性的最新理论研究成果,通过数学证明探讨了权重扰动对模型影响的边界,并提出了一种新的正则化损失函数,以增强模型的鲁棒性。论文中详细分析了单隐层权重扰动和输入向量的联合扰动情况,以及非奇异鲁棒性损失函数的设计。实验结果显示,使用该损失函数的模型在对抗攻击下的鲁棒性显著提升。
摘要由CSDN通过智能技术生成

近期,CVPR 2021 安全AI挑战者大赛正在进行中 (报名截止3月24日),相关技术解析:

1. CVPR 2021大赛, 安全AI 之防御模型的「白盒对抗攻击」解析

2. 还在刷榜ImageNet?找出模型的脆弱之处更有价值!

报名链接:

https://s.alibaba.com/Challenge

借由此比赛,引起了不少同学对【神经网络鲁棒性】研究的兴趣,本文为该方向最新进展解读,作者来自中国台湾国立交通大学和IBM。

论文链接:https://arxiv.org/abs/2102.11935

1

 引言 

神经网络的鲁棒性研究一直是一个热门的话题,该论文出自IBM是一篇很硬核关于神经网络鲁棒性分析的理论性文章,作者在论文中的数学证明由浅入深层层递进推。

为了能够清晰的阐述论文中的贡献,我花了很大的力气将文章中没有展开的证明进行了补充,并对文章中的一些推导中一些小错误进行了更正。

论文中最关键的地方就是作者提出了一个基于理论实证的正则化损失函数,如果能把它看懂并为我们所用的话,应该是一个很好的涨点利器。

2

 预备知识 

为了能够更加清晰的介绍论文中的公式推导和核心思想,需要对论文中涉及到的预备知识和符号加以说明,具体的符号形式如下所示,相关的介绍会在z 之后证明中加以说明。

假定有一个 层的神经网络,其输入向量为 ,输出的类别是为 ,则有如下公式:

其中, 为包含了神经网络中所有的权重的集合,即 为非负单调激活函数(ReLU和Sigmoid)。神经网络输出的第 个元素被记作 ,输出中 两个类别的差值表示为。

在无对抗扰动的情况下,神经网络第 层( )的输出表示为 ,其中

评论 1
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值