ILFO:Adaversarial Attack on Adaptive Neural Networks

ILFO是一种针对Adaptive Neural Networks(AdNNs)的对抗攻击方法,旨在通过添加扰动增加模型的计算量和资源消耗。攻击主要针对两种类型的AdNNs:早期终止和条件跳过。通过优化目标和特定的损失函数,攻击者可以增加模型的ponder cost或gate输出,以达到增加计算资源使用的目的,同时保持对抗样本与原始样本的视觉相似性。
摘要由CSDN通过智能技术生成

ILFO:Adaversarial Attack on Adaptive Neural Networks

论文收录于CVPR 2020

背景

神经网络在一般情况下,模型规模越大,效果越好。但模型跑起来是很耗费资源的,尤其是大型网络,对手持或嵌入式设备很不友好,于是就引发了很多人去研究节约资源的方法。现有的节约资源的方法可以分为两类:

  • On-device Neural Networks(ODNN): 通过低维的filter或更改filter的尺寸来减少计算量
  • Adaptive Neural Networks(AdNNs): 根据输入动态地停用部分模型来减少计算量 (本文考虑内容)
    • early-termination 代表模型SACT
    • Conditional-skip 代表模型SkipNet

攻击

模型资源的鲁棒性考虑的是输入与其相应的资源消耗之间的关系。

本文的攻击是针对于AdNNs的,通过对图片添加扰动,使生成的图片在AdNNs模型推断的时候,增加计算量,从而使其所用的资源增加,破坏模型的可用性。

AdNNs的工作机制如图所示:
在这里插入图片描述
在DNN Block或Layer之间有一个小的计算单元,其产生的中间结果决定下一Block或Layer上的操作,有两种操作形式:一种是早停,一种是跳过, 以此来减少计算量。

攻击目标:
1、被攻击后的样本应该增加推理时的计算量
2、原样本和对抗样本应该无法区分

定义中间输出的状态:

  • desirable state(des): 在推理时中间输出的最大计算量
  • current state(cur): 在推理过程中实际的计算量

优化方法:

minimize( δ \delta δ + c · f(x + δ \delta δ)) such that (x + δ \delta δ) ∈ \in [0, 1]n

其中c是一个正常量,f(·)是损失函数,表示des的cur之间的距离。

攻击形式
Attacking Early-termination AdNN

使用模型SACT, SACT的工作机制如下图:
在这里插入图片描述
在一个残差块(residual block)中,每一层(layer)都会计算每个位置上的halting score,同一位置上的halting score累加和只有小于1才会激活接下来该位置的计算。为了方便进行攻击,最终每个块都会基于halting score生成Ponder Cost Map。

攻击方式: 通过增加每个位置上的ponder cost来增加每个位置上的计算量。
攻击过程示例如下图所示:
在这里插入图片描述
在这里插入图片描述

<
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值