论文阅读笔记
文章平均质量分 94
程序媛堆堆
这个作者很懒,什么都没留下…
展开
-
MorDIFF: Recognition Vulnerability and Attack Detectability of Face Morphing Attacks Created by Diff
研究创建面部变形攻击的新方法对于预见新的攻击并帮助减轻攻击至关重要。创建变形攻击通常是在图像级或表示级执行的。到目前为止,基于生成对抗网络(GAN)的表示级变形已经完成,其中编码图像在潜在空间中插值,以产生基于插值向量的变形图像。这一过程受到GAN结构重构保真度有限的限制。扩散自编码器模型的最新进展已经克服了GAN的限制,导致高重建保真度。从理论上讲,这使它们成为执行表征级面部变形的完美候选者。这项工作研究了使用扩散自动编码器来创建面部变形攻击,将它们与广泛的图像级和表示级变形进行比较。原创 2023-11-21 16:05:13 · 108 阅读 · 0 评论 -
AdvFaces: Adversarial Face Synthesis
我们提出了AdvFaces,一种自动对抗人脸合成方法,通过生成对抗网络学习在显著面部区域产生最小的扰动。一旦AdvFaces经过训练,它就可以自动产生难以察觉的扰动,从而避开最先进的人脸匹配器,攻击成功率分别高达97:22%和24:30%,用于混淆和模拟攻击。我们提出了一种新的对抗人脸合成方法,即AdvFaces,该方法可以自动生成具有不可察觉扰动的对抗人脸图像,从而避开最先进的人脸匹配器。原创 2023-11-03 16:16:51 · 316 阅读 · 0 评论 -
Aha! Adaptive History-driven Attack for Decision-based Black-box Models
基于决策的黑盒攻击指的是只使用受害者模型的前1个标签来制作对抗示例。一种常见的做法是从一个大的扰动开始,然后用一个确定的方向和一个随机的方向迭代地减少它,同时保持它的对抗性。从每个查询中获得的有限信息和低效的方向采样阻碍了攻击效率,使得在有限的查询数量中很难获得足够小的扰动。为了解决这一问题,我们提出了一种新的攻击方法,称为自适应历史驱动攻击(AHA),它从所有历史查询中收集信息作为当前采样的先验。此外,为了平衡确定性方向和随机方向,我们根据实际减幅与预期减幅的比值动态调整系数。原创 2023-05-08 13:33:50 · 500 阅读 · 0 评论 -
Triangle Attack: A Query-efficient Decision-based Adversarial Attack
基于决策的攻击对实际应用程序构成了严重的威胁,因为它将目标模型视为一个黑箱,只访问硬预测标签。最近已经做出了很大的努力来减少查询的数量;然而,现有的基于决策的攻击仍然需要数千个查询才能生成高质量的对抗示例。在这项工作中,我们发现一个良性样本,当前和下一个对抗样本可以自然地在子空间中为任何迭代攻击构建一个三角形。基于正弦定律,我们提出了一种新的三角形攻击(TA),利用任何三角形中较长的边总是与较大的角相对的几何信息来优化扰动。原创 2022-11-29 10:55:00 · 804 阅读 · 1 评论 -
Efficient Decision-based Black-box Adversarial Attacks on Face Recognition
近年来,由于深度卷积神经网络(CNN)的巨大改进,人脸识别取得了显着进展。然而,深度 CNN 容易受到对抗性示例的影响,这可能会在具有安全敏感目的的现实世界人脸识别应用程序中造成致命的后果。对抗性攻击被广泛研究,因为它们可以在部署之前识别模型的漏洞。在本文中,我们评估了最先进的人脸识别模型在基于决策的黑盒攻击设置中的鲁棒性,其中攻击者无法访问模型参数和梯度,而只能获取硬标签通过向目标模型发送查询来进行预测。这种攻击设置在现实世界的人脸识别系统中更实用。原创 2022-11-17 19:10:30 · 1410 阅读 · 0 评论 -
Geometrically Adaptive Dictionary Attack on Face Recognition
基于cnn的人脸识别模型虽然有了显著的性能提高,但容易受到对抗性扰动的影响。最近的研究表明,对手可以欺骗模型,即使他们只能访问模型的硬标签输出。然而,由于需要许多查询来查找难以察觉的对抗噪声,因此减少查询的数量对于这些攻击是至关重要的。在本文中,我们指出了现有的基于决策的黑箱攻击的两个局限性。我们观察到它们浪费了对背景噪声优化的查询,而且它们没有利用为其他图像生成的对抗性扰动。我们利用3D人脸对齐来克服这些限制,并提出了一种针对人脸识别的查询高效黑箱攻击的通用策略,称为几何自适应字典攻击(GADA)。原创 2022-10-27 15:53:22 · 565 阅读 · 0 评论 -
CIAGAN: Conditional Identity Anonymization Generative Adversarial Networks
我们在图2中展示了CIAGAN的完整示意图。Pose preservation and temporal consistency姿势保持和时间一致。我们建议使用基于地标的输入面部(或身体)表示。这有两个优点:它确保了姿势保存,这在跟踪等方面特别有用;在处理视频时,它提供了一种简单但有效的方法来保持时间一致性。Conditional GAN有条件的GAN。我们利用GANs的生成能力来产生逼真的结果。标准的检测和跟踪系统能够应用于生成的图像而不损失精度是很重要的。自然,这些逼真的人脸很容易被检测出来。原创 2022-10-15 18:31:58 · 1298 阅读 · 0 评论 -
Simulating Unknown Target Models for Query-Efficient Black-box Attacks
为了研究深度神经网络的安全问题,已经提出了许多对抗性攻击方法。在黑箱设置下,当前模型窃取攻击训练一个替代模型来伪造目标模型的功能。然而,训练需要查询目标模型。因此,查询的复杂性仍然很高,这类攻击很容易防御。本研究旨在训练一个称为“模拟器”的广义替代模型,它可以模拟任何未知目标模型的功能。为此,我们通过收集现有各种网络攻击时产生的查询序列,构建多任务形式的训练数据。该学习过程在元学习中使用了基于均方误差的知识蒸馏损失,以最小化模拟器和采样网络之间的差异。原创 2022-09-28 16:00:33 · 821 阅读 · 0 评论 -
LOWKEY: LEVERAGING ADVERSARIAL ATTACKS TO PROTECT SOCIAL MEDIA USERS FROM FACIAL RECOGNITION
可以绕过人脸识别系统的对抗扰动已经被提出了,然而,现有的(对抗)方法在全面系统和商业api上失败了。我们开发了我们自己的对抗性滤波器,它包括整个图像处理流程,并且对包括人脸检测和大规模数据库在内的工业级流程非常有效。此外,我们发布了一个易于使用的网络工具,显著降低了Amazon Rekognition和Microsoft Azure人脸识别API的准确性,将它们的准确性降低到1%以下。......原创 2022-08-29 17:50:46 · 769 阅读 · 0 评论 -
ADVERSARIAL EXAMPLES IN THE PHYSICAL WORLD
ADVERSARIAL EXAMPLES IN THE PHYSICAL WORLD物理世界中的对抗性例子大多数现有的机器学习分类器极易受到敌对示例的攻击。一个敌对的例子是输入数据的样本,该样本经过了非常轻微的修改,旨在导致机器学习分类器对其进行错误分类。在许多情况下,这些修改可能非常细微,以至于人类观察者根本没有注意到修改,但分类器仍然会出错。对抗性示例会带来安全问题,因为它们可能被用来对机器学习系统进行攻击,即使对手无法访问底层模型。到目前为止,所有以前的工作都假设了一个威胁模型,在该模型中,对手可以原创 2022-06-13 18:13:11 · 993 阅读 · 1 评论 -
Tensor Distance based Multilinear Multidimensional Scaling for Image and Video Analysis
Tensor Distance based Multilinear Multidimensional Scaling for Image and Video Analysis基于张量距离的多线性多维尺度图像和视频分析原创 2022-06-02 14:54:23 · 137 阅读 · 0 评论 -
Tensor Distance Based Multilinear Locality-Preserved Maximum Information Embedding
Tensor Distance based Multilinear Multidimensional Scaling for Image and Video Analysis基于张量距离的多线性局部保持最大信息嵌入摘要:本文提出了一种基于张量的降维(dimensionality reduction,DR)统一框架,该框架采用了一种新的张量距离(tensor distance,TD)度量和一种新的多线性局部保持最大信息嵌入(multilinear locality-preserved maximum原创 2022-06-01 11:12:27 · 240 阅读 · 0 评论 -
CRLBP: Completed robust local binary pattern for texture classification
CRLBP: Completed robust local binary pattern for texture classification用于纹理分类的完备鲁棒局部二值模式原文地址:https://www.sciencedirect.com/science/article/pii/S0925231212008545?via%3Dihub摘要原始的局部二进制模式(LBP)描述符有两个明显的缺点,即对噪声敏感,有时倾向于用相同的二进制码来描述不同的结构模式,这将不可避免地降低其可分辨性。为了克服这两原创 2022-05-25 17:47:21 · 447 阅读 · 0 评论 -
BRINT: A binary rotation invariant and noise tolerant texture descriptor
原文地址:https://ieeexplore.ieee.org/document/6738053BRINT:一种二进制旋转不变的抗噪声描述符原创 2022-05-22 17:13:39 · 608 阅读 · 0 评论 -
LBP算法及其改进算法
LBP指局部二值模式,英文全称:Local Binary Pattern,是一种用来描述图像局部特征的算子,LBP特征具有灰度不变性和旋转不变性等显著优点。本文介绍了LBP算法以及其部分扩展算法原创 2022-05-19 17:34:24 · 9799 阅读 · 1 评论