- 博客(56)
- 收藏
- 关注
原创 《Dark-ISP: Enhancing RAW Image Processing for Low-Light Object Detection》论文分享(侵删)
原文链接:https://arxiv.org/abs/2509.09183author={Jiasheng Guo and Xin Gao and Yuxiang Yan and Guanghao Li and Jian Pu}摘要弱光目标检测对于许多现实世界的应用是至关重要的,但由于图像质量下降,仍然具有挑战性。虽然最近的研究表明,原始图像比RGB图像具有更好的潜力,但现有的方法要么使用具有信息损失的原始RGB图像1,要么使用复杂的框架。为了解决这些问题,我们提出了一个轻量级的自适应图像信号处理(Isp)
2026-04-08 18:57:17
321
原创 《Unified Adversarial Patch for Cross-modal Attacks in the Physical World》论文分享(侵删)
原文链接:https://doi.org/10.1109/tpami.2023.3330769author={Xingxing Wei and Yao Huang and Yitong Sun and Jie Yu}摘要 最近,为了躲避基于DNN的对象检测器,已经出现了物理对抗性攻击。为了确保安全,多个场景同时部署了可见光传感器和红外传感器,导致这些单模物理攻击失败。为了显示这种场景下的潜在风险,我们提出了一个统一的对抗性补丁来执行跨模式的物理攻击,即通过一个补丁同时欺骗可见光和红外目标探测器
2026-04-01 21:45:55
329
原创 《WaveMamba: Wavelet-Driven Mamba Fusion for RGB-Infrared ObjectDetection》论文分享(侵删)
原文链接:https://dblp.uni-trier.de/rec/journals/corr/abs-2507-18173.htmlauthor={Haodong Zhu and Wenhao Dong and Linlin Yang and Hong Li and Yuguang Yang and Yangyang Ren and Qingcheng Zhu and Zichao Feng and CHANGBI LI and Shaohui Lin and Runqi Wang and Xiaoya
2026-03-26 21:35:48
361
1
原创 《Orthogonal Subspace Decomposition for Generalizable AI-Generated ImageDetection》论文分享(侵删)
author={Zhiyuan Yan and Jiangming Wang and Peng Jin and Ke-Yue Zhang and Chengchun Liu and Shen Chen and Taiping Yao and Shouhong Ding and Baoyuan Wu and Li Yuan}原文链接:https://arxiv.org/abs/2411.15633摘要人工智能生成的图像(AIGI),如自然图像或人脸图像,已变得越来越重要,但也越来越具有挑战性。本文从一个新的角
2026-03-05 15:35:21
329
原创 《Conditional Diffusion Models for Camouflaged andSalient Object Detection》论文分享(侵删)
原文链接:https://doi.org/10.1109/tpami.2025.3527469author={Ke Sun and Zhongxi Chen and Xianming Lin and Xiaoshuai Sun and Hong Liu and Rongrong Ji}摘要伪装目标检测(COD)是计算机视觉领域的一项重大挑战,在实际应用中起着至关重要的作用。现有的COD方法在用高置信度预测准确预测细微差别的边界方面经常面临挑战。在这项工作中,我们介绍了一种新的学习方法CamoDiffulat
2026-01-05 22:06:48
886
原创 《Removal and Selection: Improving RGB-Infrared Object Detection viaCoarse-to-Fine Fusion》论文分享(侵删)
原文链接:https://arxiv.org/abs/2401.10731author={Tianyi Zhao and Maoxun Yuan and Feng Jiang and Nan Wang and Xingxing Wei}摘要近年来,可见光(RGB)和红外(IR)图像中的目标检测得到了广泛的应用。利用RGB和IR图像的互补特性,目标探测器从白天到晚上提供可靠和稳健的目标定位。现有的融合策略直接将RGB和IR图像注入卷积神经网络,导致检测性能较差。由于RGB和IR特征具有特定于通道的噪声,这些策
2025-12-15 11:42:53
549
原创 《Representation Space Constrained Learning with Modality Decoupling for Multimodal Object Detection》
author={YiKang Shao and Tao Shi},原文链接: https://arxiv.org/abs/2511.15433摘要多通道目标检测由于其较强的鲁棒性,在学术界和工业界都引起了广泛的关注。虽然许多研究都集中在改进通道融合策略上,但大多数忽略了融合退化,并且没有一个对其潜在原因提供理论分析。为了填补这一空白,本文对多模式检测中的融合退化问题进行了系统的理论研究,发现了两个关键的优化缺陷:(1)在多模式结构下,单峰分支主干的梯度被严重抑制,导致单峰分支的欠优化;(2)通道质量的差异导
2025-12-01 20:09:17
785
原创 《Rethinking Multi-modal Object Detection from the Perspective ofMono-Modality Feature Learning》论文分享
原文链接:https://arxiv.org/abs/2503.11780author={Tianyi Zhao and Boyang Liu and Yanglei Gao and Yiming Sun and Maoxun Yuan and Xingxing Wei},摘要多模式目标检测(MMOD)由于对各种复杂环境具有较强的适应性,在各种应用中得到了广泛的应用。大量的研究致力于RGB-IR目标检测,主要集中在如何整合RGB-IR模式的互补特征。然而,它们忽略了多模式联合学习中单峰学习不足的问题,即特征
2025-11-20 08:49:31
805
原创 《SAFETY MIRAGE: HOW SPURIOUS CORRELATIONS UNDERMINE VLM SAFETY FINE-TUNING ...》论文分享(侵删)
原文链接:https://arxiv.org/abs/2503.11832摘要最近的视觉语言模型(VLM)在使用多通道输入,特别是文本和图像的生成性建模方面取得了显著进展。然而,当它们暴露在不安全的查询中时,很容易产生有害内容,这引发了严重的安全问题。虽然当前的比对策略主要依赖于对经过精选的数据集进行监督的安全微调,但我们确定了一个基本限制,我们称之为“安全海市蜃楼”,其中监督的微调无意中强化了表面文本模式和安全反应之间的虚假关联,而不是促进深层的、内在的伤害缓解。我们表明,这些虚假的相关性使得微调的VLM
2025-11-11 17:12:28
479
原创 《PRISM: ROBUST VLM ALIGNMENT WITH PRINCI-PLED REASONING FOR INTEGRATED SAFETY IN MUL-TIMODALITY》论文分享
原文链接:https://arxiv.org/abs/2508.18649摘要保护视觉语言模型(VLM)是一个关键的挑战,因为现有的方法往往存在过度防御的问题,这损害了实用性,或者依赖于浅层对齐,无法检测到需要深入推理的复杂威胁。为此,我们引入了PRISM(多通道集成安全原则推理),这是一个类似于Syst2的框架,通过嵌入结构化的、安全感知的推理过程来协调VLM。我们的框架由两个关键组件组成:PRISM-COT,一个教授安全意识思想链推理的数据集,以及PRISM-DPO,通过蒙特卡罗树搜索(MCTS)生成,
2025-11-05 10:56:24
495
原创 《TEACH TO REASON SAFELY: POLICY-GUIDED SAFETYTUNING FOR MLRMS》论文分享(侵删)
原文链接:https://openreview.net/forum?id=cgy4i74Dq7摘要多通道大推理模型(MLRM)在复杂的多通道任务中表现出了卓越的性能。然而,我们的发现揭示了一个关键的权衡:基于推理的模型更容易产生有害内容,导致安全性能下降。本文对这种安全推理的权衡进行了大规模的分析,确定了安全退化的两个主要机制:(I)视觉注意漂移,它减少了模型对视觉基础的依赖,从而加剧了跨模式交互中被忽视的风险;(Ii)不安全推理模式,包括有缺陷的推理启动和思维链安全衰减,损害了模型的安全意识。为了缓解这些
2025-11-03 11:03:30
478
原创 《SimAC: A Simple Anti-Customization Method againstText-to-Image Synthesis of Diffusion Models》论文(侵删)
https://doi.org/10.1109/cvpr52733.2024.01145author={Feifei Wang and Zhentao Tan and Tianyi Wei and Yue Wu and Qidong Huang}摘要尽管基于扩散的定制方法在视觉内容创作上取得了成功,但从隐私和政治的角度来看,人们对这种技术的关注越来越多。为了解决这个问题,最近几个月提出了几种反定制方法,主要是基于对抗性攻击。遗憾的是,这些方法大多采用简单的设计,例如端到端优化,关注的是相反地最大化原始训练损
2025-10-30 16:41:54
882
原创 《Towards Robust Defense against Customization via Protective PerturbationResistant to Diffusion》论文分享
author={Wenkui Yang and Jie Cao and Junxian Duan and Ran He}原文链接:https://arxiv.org/abs/2509.13922摘要像稳定扩散这样的扩散模型由于其强大的定制能力而在视觉合成任务中变得突出,但同时也带来了重大的安全风险,包括深度假冒和版权侵权。作为回应,出现了一类被称为保护性扰动的方法,它通过注入难以察觉的对抗性噪声来减轻图像的误用。然而,净化可以消除保护性干扰,从而使图像再次暴露在恶意伪造的风险之下。在这项工作中,我们将反净化
2025-10-24 17:05:58
698
原创 《DreamBooth: Fine Tuning Text-to-Image Diffusion Models for Subject-Driven Generation》论文分享(侵删)
原文链接:https://doi.org/10.1109/cvpr52729.2023.02155author={Nataniel Ruiz and Yuanzhen Li and Varun Jampani and Yael Pritch and Michael Rubinstein and Kfir Aberman}摘要大型文本到图像模型实现了人工智能进化的显著飞跃,使给定文本提示的图像能够高质量和多样化地合成。然而,这些模型缺乏模仿给定参考集合中的受试者的外观,并在不同的上下文中合成这些受试者的新颖再
2025-10-17 11:29:13
674
原创 《Harnessing Global-Local Collaborative Adversarial Perturbation for Anti-Customization》论文分享(侵删)
原文链接:Harnessing Global-Local Collaborative Adversarial Perturbation for Anti-Customization | IEEE Conference Publication | IEEE Xploreauthor={Long Xu and Jiakai Wang and Haojie Hao and Haotong Qin and Jiejie Zhao and Xianglong Liu}摘要 虽然潜在扩散模型(LDM)在个
2025-10-09 17:20:41
761
原创 《IAP: Invisible Adversarial Patch Attack through PerceptibilityAwareLocalization and Perturbation》侵删
原文链接:[2507.06856] IAP: Invisible Adversarial Patch Attack through Perceptibility-Aware Localization and Perturbation Optimization摘要 尽管只修改了一个小的局部输入区域,但对抗性补丁可以极大地改变计算机视觉模型的预测。然而,现有的方法要么在有针对性的攻击场景下无法令人满意地执行,要么无法产生上下文一致的对抗补丁,导致它们很容易被人类检查员注意到,并且对自动补丁防御的隐
2025-07-24 18:20:46
1024
原创 《Adv-Diffusion: Imperceptible Adversarial Face Identity Attack via LatentDiffusion Model》论文分析(侵删)
原文链接:Adv-Diffusion: Imperceptible Adversarial Face Identity Attack via Latent Diffusion Model| Proceedings of the AAAI Conference on Artificial Intelligenceauthor={Decheng Liu and Xijun Wang and Chunlei Peng and Nannan Wang and Ruimin Hu and Xinbo Gao}摘要
2025-07-18 15:43:53
798
原创 《EAP: An effective black-box impersonation adversarial patch attack ...》论文分享(侵删)
这些结果表明,EAP可以有效地执行黑盒模仿攻击的各种人脸识别骨干具有不同的架构和复杂性,包括基于transformer的模型,有效的模型,和残留模型。物理攻击比数字攻击更具挑战性,因为它们需要考虑在不同场景下影响受扰对象外观的各种因素,如光照条件、视角、距离等,有些物理攻击方式使用眼镜(Sharif [1,2])、帽子(Komkov和Petiushko [4])、面具(Zolfi等人[16],Yin等人[17])、贴纸(Wei等人[18])或光投影(Nguyen等人[3])作为对抗性扰动的载体。
2025-06-04 15:39:41
654
原创 《Deep keypoints adversarial attack on face recognition systems》论文分享(侵删)
原文链接:Redirectingauthor={Emna Bensaid and Mohamed Neji and Marwa Jabberi and Adel M. Alimi}摘要基于深度学习的人脸识别系统最近在解决复杂问题方面取得了突出的成功。但事实证明,它们非常容易受到攻击。因此,必须研究此类系统的脆弱性。欺骗人脸识别系统的有效攻击策略会产生对抗性的例子。作为这种攻击的结果,系统可能错误地拒绝真实的对象。当前用于创建对抗性面部图像的方法具有较差的感知质量并且花费太长的时间来产生。提出了一种新的对抗攻
2025-05-23 11:22:45
1121
原创 《Saliency Attack: Towards Imperceptible Black-box Adversarial Attack》论文分享(侵删)
原文链接:https://doi.org/10.1145/3582563author={Zeyu Dai and Shengcai Liu and Qing Li and Ke Tang} 摘要 深度神经网络很容易受到对抗样本的攻击,即使是在攻击者只能访问模型输出的黑箱环境中。最近的研究已经设计了一种有效的黑盒攻击方法,具有很高的查询效率。然而,这种性能通常伴随着攻击不可察觉性的折衷,阻碍了这些方法的实际使用。在本文中,我们提出将扰动限制在一个小的显著区域内,以产生难以察觉的对抗性示例。该方法
2025-05-21 15:45:43
658
原创 《Adversarial Sticker: A Stealthy Attack Method in the Physical World》论文分享(侵删)
原文链接:Adversarial Sticker: A Stealthy Attack Method in the Physical World | IEEE Journals & Magazine | IEEE Xploreauthor={Xingxing Wei and Ying Guo and Jie Yu}摘要 为了评估深度学习在物理世界中的脆弱性,最近的工作引入了对抗补丁,并将它们应用于不同的任务。在本文中,我们提出了另一种对抗补丁:有意义的对抗贴纸,一个物理上可行的和隐形的攻击方法
2025-05-15 21:41:47
1246
原创 《Feature-aware transferable adversarial attacks against image classification》论文分享(侵删)
原文链接:Feature-aware transferable adversarial attacks against image classification - ScienceDirectauthor={Shuyan Cheng and Peng Li and Keji Han and He Xu}摘要与白盒对抗攻击相比,黑盒对抗攻击具有更强的实用性,因此受到了广泛的关注。然而,现有的大多数黑盒攻击都是在输出层进行优化,生成的对抗性样本难以从代理模型转移到目标模型。现有的对抗性攻击对中间层特征进行不加区
2025-05-14 11:57:26
804
原创 《Feature-Aware Transferable Adversarial Attacks on Visual Object Tracking》论文分享(侵删)
原文链接:Feature-Aware Transferable Adversarial Attacks on Visual Object Tracking | IEEE Journals & Magazine | IEEE Xploreauthor={Mengdi Dong and Ke Xu and Xinghao Jiang and Zeyu Zhao and Tanfeng Sun}摘要 视觉目标跟踪容易受到攻击,这给许多应用系统带来了严重的安全问题。以往的攻击方法主要针
2025-05-12 17:13:51
1120
原创 《Decoupled Multi-task Learning with Cyclical Self-Regulation for Face Parsing》论文分享(侵删)
author={Qingping Zheng and Jiankang Deng and Zheng Zhu and Ying Li and Stefanos Zafeiriou}原文链接:Decoupled Multi-task Learning with Cyclical Self-Regulation for Face Parsing | IEEE Conference Publication | IEEE Xplore摘要 本文探讨了现有人脸分析方法中常见的空间不一致和边界混淆等错误背
2025-04-09 21:56:23
752
原创 DiGradPatch: Black-Box Patch Attacks via Diffusion-Based Double Gradient 论文分享(侵删)
摘要深度神经网络在图像分析任务中证明了黑盒对抗性补丁攻击的漏洞,这引发了人们对它们在安全关键应用中的稳健性的担忧。当前方法通常依赖于随机搜索策略来确定补丁位置,并在补丁区域中应用不受限制的像素扰动,从而导致高查询成本和严重的视觉失真,从而降低了不可感知性。为了解决这些限制,我们提出了通过基于扩散的双梯度和敏感分布指导 (DiGradPatch) 进行黑盒补丁攻击,这是一种旨在以最低查询成本生成高度难以察觉的对抗样本的新方法。
2025-03-14 18:11:04
764
原创 《SegFace: Face Segmentation of Long-Tail Classes》论文分享(侵删)
author={Kartik Narayan and Vibashan VS and Vishal M. Patel}原文链接:[2412.08647] SegFace: Face Segmentation of Long-Tail Classes摘要 人脸解析是指将人脸语义分割为眼睛、鼻子、头发等关键面部区域。它是各种高级应用程序的先决条件,包括人脸编辑、人脸交换和面部化妆,这些应用程序通常需要对眼镜、帽子、耳环和项链等类别进行分割遮罩。这些不常出现的类称为长尾类,而长尾类被称为头类的频繁出
2025-02-28 22:17:42
1185
原创 《MULTI-CLASS SEMANTIC SEGMENTATION OF FACES》论文分享(侵删)
我们考虑来自集合DHSV = {16×16,32×32,64×64}和Nbins = {16,32,64}的所有9个值的组合。心理学文献似乎证实了他们的主张,因为从人脸区域提取的重要面部特征(前额,头发)被证明是人类视觉系统的信息,以便识别面部身份[3,4]。准确性被用作性能指标。我们探索了不同的参数化补丁尺寸(DHSV= 16×16,32×32和64×64)和直方图箱的数量(Nbins = 16,32和64)。由于这些原因,在我们的工作中,我们将标签集扩展到六个类别:皮肤,头发,眼睛,鼻子,嘴巴和背景。
2025-02-25 16:50:58
702
原创 《Simultaneously Optimizing Perturbations and Positions for Black-box Adversarial Patch Attacks》论文分享
原文链接:https://doi.org/10.1109/tpami.2022.3231886author={Xingxing Wei and Ying Guo and Jie Yu and Bo Zhang},一、摘要对抗补丁是一种重要的对抗攻击形式,它给深度神经网络的鲁棒性带来极大威胁.现有的方法要么通过在固定粘贴位置的同时优化其扰动值,要么通过在固定补丁内容的同时操纵位置来生成对抗补丁。这表明,位置和扰动对对抗性攻击都是重要的。为此,本文提出了一种新的方法来同时优化对抗补丁
2025-01-07 21:55:14
1184
原创 《Part-based Face Recognition with Vision Transformers》论文翻译
虽然最近关于FR的大部分工作集中于(B),设计更有效的损失函数[8,13,33,37,48,58,61],该工作主要集中在(a),即,设计用于面部特征提取的新架构。其中N是一个批次中的样本数量,z = zL cls|| zL cls||,zi是第i个样本,yi是相应的地面实况,W = W*/|| W *||是最后一个线性层的权重矩阵,Wj是权重矩阵的归一化的第j列(类),cos(θ yi,i)= WT yi zi,m是余量,B固定为||zL cls||.我们发现,fViT,类似于ViT,容易过拟合。
2024-12-25 20:32:21
906
原创 《DSL-FIQA》论文翻译
常规图像质量评估传统的常规图像质量评估(GIQA)[7,14]方法,如BRISQUE [39]、NIQE [40]和DIIVINE [41],是建立在传统统计模型的基础上的,这些方法在大小受限的数据集上工作良好,但在复杂的真实世界图像上却面临着局限性。几十年来,对一般图像的图像质量评估(IQA)[14,28,35,66,71]或一般IQA(GIQA)的研究已经证明了各种通用IQA数据集的可靠性能[15,19,33,47,57,67]。总之,DSL摆脱了整个图像上的补丁退化的均匀性假设,以进行退化学习。
2024-12-02 22:17:45
1171
原创 《Attention Deficit is Ordered! Fooling Deformable Vision Transformers withCollaborative Adversarial》
首次针对可变形Transformer架构开发攻击方法:这些方法能够突破此前基于注意力的攻击所无法攻克的防御机制,专门针对这些模型的稀疏注意力结构。提出四种基于指针的攻击策略:每种策略针对不同的攻击目标,包括全新的协作补丁攻击,通过重定向注意力至对抗性补丁,最大化对模型损失的影响。在不同数据集上的基准测试:我们在MS COCO [15] 和多摄像头目标检测数据集 Wildtrack [7] 上测试了这些攻击方法,并与现有攻击进行了对比。
2024-12-02 17:33:19
996
原创 《Pyramid Vision Transformer: A Versatile Backbone for Dense Predictionwithout Convolutions》论文翻译
原文链接:Pyramid Vision Transformer: A Versatile Backbone for Dense Prediction without Convolutions | IEEE Conference Publication | IEEE Xploreauthor={Wenhai Wang and Enze Xie and Xiang Li and Deng-Ping Fan and Kaitao Song and Ding Liang and Tong Lu and Ping
2024-11-17 18:43:21
1005
原创 《DPT: Deformable Patch-based Transformer for Visual Recognition》论文翻译
原文链接:DPT: Deformable Patch-based Transformer for Visual Recognition | Proceedings of the 29th ACM International Conference on Multimediaauthor={Zhiyang Chen and Yousong Zhu and Chaoyang Zhao and Guosheng Hu and Wei Zeng and Jinqiao Wang and Ming Tang},一
2024-11-14 21:56:02
1000
原创 DAT and Deformable DETR
Linear Deformable Attention是一种改进的注意力机制,通过稀疏化的动态注意力区域显著降低计算成本,特别适合处理视觉任务中大尺度的高分辨率图像。其灵活的区域选择使得模型能有效聚焦重要特征,从而在效率和效果上优于传统的全局注意力机制。以下部分摘录自《Vision Transformer with Deformable Attention》
2024-11-08 10:10:58
935
原创 《Vision Transformer with Deformable Attention》论文翻译
原文链接:https://doi.org/10.1109/cvpr52688.2022.00475author={Zhuofan Xia and Xuran Pan and Shiji Song and Li Erran Li and Gao Huang}一、介绍Transformer最初是为了处理自然语言处理任务而提出的。最近,它在计算机视觉领域展示了巨大的潜力。先锋工作Vision Transformer(ViT)通过堆叠多个Transformer块处理非重叠的图像块(即视觉
2024-11-06 21:56:19
1335
原创 《TnT Attacks! Universal Naturalistic AdversarialPatches Against Deep Neural Network System》论文分享(侵删)
首先,我们形式化TnT的符号表示,其次,我们提出实现这种TnT的方法。在这里,A是补丁戳过程,ytTarget是攻击者指定的目标类,ysource是地面实况标签,xmax(x max,ytTarget,ysource)是来自分类器f的预测分数与目标以及源标签之间的组合交叉熵损失,并且xmax是来自目标分类器f的反馈。然而,在所有看起来自然的小图像块的无限空间中搜索是不可行的,因此我们通过从GAN的最新发展中获得灵感,将我们的搜索限制在生成对抗网络(GAN)的流形上,GAN显示出学习生成逼真图像的巨大能力。
2024-10-31 18:35:55
862
原创 《Adversarial Patch Attacks on Deep-Learning-Based FaceRecognition Systems Using Generative Adversar》
总而言之,其他论文使用基于代理的在物理世界中,传统的基于代理的方法对模型结构和参数是强制性的,这意味着它只适用于白盒攻击。所提出的架构并入了额外的损耗,指定为L身份,其目的是鼓励生成器(G)以产生专门用于使面部识别系统将输入面部误判为另一个人的面部的噪声。因此,所提出的方法更容易应用于物理世界中的攻击。然而,当生成敌对面部((x + G(x),其中x = ft)以执行有针对性的攻击时,目的是攻击特定目标,因此将用敌对面部图像f+ x + G(x)修补的输入图像与攻击目标ft的面部图像进行比较。
2024-10-24 10:34:32
787
原创 《Transferable Black-Box Attack Against FaceRecognition With Spatial Mutable Adversarial Patch》论文分享
原文链接:dblp: Transferable Black-Box Attack Against Face Recognition With Spatial Mutable Adversarial Patch.author={Haotian Ma and Ke Xu and Xinghao Jiang and Zeyu Zhao and Tanfeng Sun}一、介绍本文提出了一种空间可变对抗补丁(SMAP)的方法来产生一个动态可变补丁注入到脸上。在所提出的SMAP中,纹理,位
2024-05-27 00:52:29
1068
原创 《A data independent approach to generate adversarial patches》论文分享(侵删)
实验结果表明,DiAP生成的对抗补丁具有较强的攻击能力.特别是,通过从非目标补丁中提取关于训练数据的模糊信息,DiAP在黑盒攻击场景中的性能优于最先进的攻击方法。显示了为非目标攻击生成的一些补丁。当斑块覆盖10%的测试图像时,97.1%的与斑块(a)叠加的对抗性示例被分类为气泡,60.9%的被斑块(b)扰动的图像被识别为作为盐瓶或瓢虫,55.8%的图像被斑片(c)干扰后被识别为气泡或风车。对抗补丁是图像独立的,对于旋转和缩放是鲁棒的,可以放置在深度神经网络的视野内的任何地方,并使深度神经网络输出目标类。
2024-05-11 23:54:01
1092
2
原创 《Suppress with a Patch: Revisiting UniversalAdversarial Patch Attacks against Object Detection》论文分享
特别是,我们评估的补丁大小和初始化方法的影响。为了实现位置不可知的补丁,我们评估了三种可能的补丁放置策略:将补丁放置在一个固定的位置,动态窗口的方法,和随机补丁放置。我们对不同的补丁生成参数进行了深入的分析,包括初始化,补丁大小,特别是在训练过程中在图像中定位补丁。实验表明,在训练过程中,在一个大小不断增加的窗口内插入一个补丁,与固定位置相比,可以显著增加攻击强度。我们研究了在训练期间定位补丁的三种方法:(1)将补丁放置在图像中心的固定位置,(2)动态窗口方法,以及(3)在整个输入图像上随机放置补丁。
2024-03-26 21:36:39
1088
1
空空如也
空空如也
TA创建的收藏夹 TA关注的收藏夹
TA关注的人
RSS订阅