【论文阅读笔记】Analyzing Federated Learning through an Adversarial Lens

个人阅读笔记,如有错误欢迎指出

ICML 2019        [1811.12470] Analyzing Federated Learning through an Adversarial Lens (arxiv.org)

问题:

        传统模型攻击容易被服务器通过精度检测以及权重分析检测出来,本文意在找到一种投毒方法绕过服务器的检测。

创新点:

        1、提出了一个攻击的评价指标-隐蔽性。主要在于精度上以及权重分布上。

        2、提出了以交替最小化公式的攻击方式,以实现攻击的同时尽可能逃过服务器的检测。

实验:

        数据集为IID数据

方法:

        攻击目标:主任务上尽可能减小影响,后门上实现高精度,并且能够绕过服务器检测。

        隐蔽性评价指标:

        1、精度检查:服务器在收到更新后,将每个模型更新获取到的新模型\textbf{w}_i^t = \textbf{w}_G^{t-1} + \delta_i^t​与其他所有模型更新得到的模型\textbf{w}_{G\backslash i}^t = \textbf{w}_G^{t-1} + \sum_i \delta_i^t在精度上进行比较,若低于阈值则服务器判定为攻击者。攻击者为求能够绕过此种防御,必须满足如下:

        2、权重更新分布:以当前模型更新与去掉当前模型的其他模型的距离最小值

        min_{i \in[k] \backslash m} d(\delta_m^t, \delta_i^t)以及最大值max_{i \in[k] \backslash m} d(\delta_m^t, \delta_i^t),计算其他模型的距离最小值R_{min,[k \backslash m]}^l最大值R_{max,[k \backslash m]}^l为上下界,距离最大临界为\kappa _t。攻击者需满足以下要求以绕过检测:

攻击方式:

        1、梯度放大:

        恶意的训练方首先必须克服其余正常训练方梯度更新的影响以及服务器聚合模型梯度时,对梯度更新缩放的影响,需要对更新的梯度进行放大。攻击者估计聚合器的更新为\hat{\textbf{w}}_G^t = \textbf{w}_G^{t-1}+\alpha_m \delta_m^t​,则定义\lambda = \frac{1}{\alpha_m},提交的更新为\delta_m^t = \lambda \widetilde\delta_m^t,随后服务器的更新则变为了\hat{\textbf{w}}_G^t = \textbf{w}_m^t,本轮更新之后的全局模型的估计值等于恶意训练方的本地模型(模型替换)。

        效果:第三轮后主任务以及后门任务的准确率都较高

        攻击缺陷:易于被以下检测手段捕获

        ①精度检测中远低于全局模型

        ②恶意更新的L2距离分布更稀疏范围也更小,也更尖锐

隐形模型中毒:

        1、针对精度损失问题:为了保证攻击方模型在验证集上也有较高的准确度,攻击方在进行本地模型训练的过程中,添加了基于本地正常数据的训练损失函数:

        2、针对距离度量问题:限制模型与其他模型的平均模型的欧式距离

实验结果

1、使用隐形模型中毒的攻击方在精确度检测中更难被检测到

2、隐形模型中毒的攻击方的权重更新分布与正常训练方的权重更新分布较为接近

恶意攻击模型的l2距离与其他良性模型的距离较为接近

交替最小化攻击

流程:

        1、从当前的模型参数,最小化攻击目标,训练得到一个梯度更新。

        2、利用simple boosting的思想对梯度进行增强,与当前的模型参数相加得到中间步骤的模型参数。

        3、从所得到的中间步骤的模型参数开始,最小化之前提到的两个隐形目标,最终得到一个新的模型

效果:

        1、可以绕过准确性检查方法,因为恶意模型验证数据的准确性接近全局模型。

        2、这种攻击的传播距离与良性更新的传播距离非常接近,甚至完全重叠,从而实现了两种属性的完全隐形

对拜占庭聚合机制的攻击效果:

        Krum以及Coordinate-wise median:攻击机制对两种聚合方式都有效

使用目标后门的模型投毒使得Krum不收敛

在恶意客户端学习的本地模型也具有高验证精度的交替最小化是无效的

        通过估计提高攻击性能

        攻击者对其余良性客户端的更新\delta_{[k]\backslash m}^t = \sum_{i \in[k] \backslash m} \alpha_i \delta_i^t进行估计

        估计方法为:攻击者假定自从上一次被选中后所有良性更新都相同,即\hat \delta_{[k] \backslash m}^t = \frac{\textbf{w}_G^t - \textbf{w}_G^{t'} -\delta_m^{t'}}{t-t'},当 连续被选中时,则\hat \delta_{[k] \backslash m}^t = \hat \delta_{[k] \backslash m}^{t-1}​。

                1、优化后修正:计算出权重更新后减去一个\lambda \hat \delta_{[k]\backslash m}^t,若估计值等于实际值\hat\delta_{[k]\backslash m}^t = \delta_{[k]\backslash m}^t\lambda = \frac{1}{\alpha_m}​,则这就能抵消其余更新的贡献

                2、优化前修正:攻击者从\textbf{w}_G^{t-1} + \hat \delta_{[k] \backslash m} ^t开始计算出更新的权重,而不是从\textbf{w}_G^{t-1}​。

        使用效果:使用具有优化后修正的攻击在实现对抗性目标方面更有效。使用优化后校正是无效的,导致攻击成功率较低,并影响全局模型收敛。

        数据投毒不进行缩放攻击效果有限,进行缩放时影响全局任务的精度,整体而言数据投毒效果比模型投毒差

        在一些对模型的解释技术中观测中分不清良性模型以及具有后门的恶意后门的模型的区别。

        在多攻击者的实验中会对模型的全局准确率造成影响,但是能够保证模型收敛。

        当训练的客户端较多时,并不能保证每次都被选中,但整体上攻击有效,性能稍差。

  • 4
    点赞
  • 2
    收藏
    觉得还不错? 一键收藏
  • 0
    评论
很遗憾,我无法找到您提到的特定论文的详细信息,因此无法提供其具体缺点的详细信息。但是,我可以概括一些可能存在的缺点,这些缺点可能与许多生物信息学算法或研究方法相关。 1. 数据采集的限制:该算法所使用的数据可能存在采集方法、质量或量不足等方面的限制。这些因素可能导致结果的偏差或不准确性。 2. 误差传播:在算法执行期间,任何计算或处理步骤中的误差都可能在后续步骤中被放大或传播,从而导致结果的不准确性。 3. 算法参数选择:许多生物信息学算法具有需要手动选择的参数,这些参数的不同值可能会对结果产生不同的影响。算法的开发者可能会选择的参数值可能会导致某些偏差或不准确性。 4. 数据的解释:即使算法生成了结果,但这些结果可能需要进一步的解释和解读。结果的解释和解读可能需要基础生物学知识和领域专业知识,这可能会导致解释的不一致性或误解。 5. 算法的适用性:某些算法可能针对特定类型的数据或问题进行优化,可能无法适用于其他类型的数据或问题。因此,在使用算法之前,必须确保该算法适用于您的具体问题或数据集。 6. 未被发现的限制:与任何新的技术或方法一样,可能存在一些缺点或限制,这些缺点或限制可能尚未被发现或报告。这些限制可能会在后续的研究中得到发现和解决,但这些限制可能会影响算法的准确性和应用性。
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值