学习笔记:【VALSE短教程】《Adversarial Attack and Defense》

学习笔记:【VALSE短教程】《Adversarial Attack and Defense》

视频地址

在这里插入图片描述

1、White-box attacks

在这里插入图片描述
Direction I
在这里插入图片描述

在这里插入图片描述
论文地址:

EXPLAINING AND HARNESSING ADVERSARIAL EXAMPLES
在这里插入图片描述
论文地址:

ADVERSARIAL EXAMPLES IN THE PHYSICAL WORLD

在这里插入图片描述
论文地址:

Towards Deep Learning Models Resistant to Adversarial Attacks

Direction II
分错条件下找到扰动最小的对抗样本。

在这里插入图片描述
论文地址:

DeepFool: a simple and accurate method to fool deep neural networks

在这里插入图片描述

论文地址:

Towards Evaluating the Robustness of Neural Networks

在这里插入图片描述

在这里插入图片描述

2、Black-box Attack

在这里插入图片描述
在这里插入图片描述

1、Transferability-based Attack

在这里插入图片描述

在这里插入图片描述

在这里插入图片描述

论文地址:

Boosting Adversarial Attacks with Momentum

NESTEROV ACCELERATED GRADIENT AND SCALE INVARIANCE FOR ADVERSARIAL ATTACKS

在这里插入图片描述

论文地址:

Towards Understanding and Improving the Transferability of Adversarial Examples in Deep Neural Networks

Evading Defenses to Transferable Adversarial Examples by Translation-Invariant Attacks

Improving Transferability of Adversarial Examples with Input Diversity

在这里插入图片描述
论文地址:

SKIP CONNECTIONS MATTER: ON THE TRANSFERABILITY OF ADVERSARIAL EXAMPLES GENERATED WITH RESNETS

在这里插入图片描述
在这里插入图片描述

在这里插入图片描述

2、Query-based Adversarial Attack

在这里插入图片描述

在这里插入图片描述
在这里插入图片描述

论文地址:

DECISION-BASED ADVERSARIAL ATTACKS: RELIABLE ATTACKS AGAINST BLACK-BOX MACHINE LEARNING MODELS

A Ray Searching Method for Hard-label Adversarial Attack

ZOO: Zeroth Order Optimization Based Black-box Attacks to Deep Neural Networks without Training Substitute Models

Auto ZOOM: Autoencoder-based Zeroth Order Optimization Method for Attacking Black-box Neural Networks

Square Attack: a query-efficient black-box adversarial attack via random search

Black-box Adversarial Attacks with Limited Queries and Information

N ATTACK:Learning the Distributions of Adversarial Examples for an Improved Black-Box Attack on Deep Neural Networks

Improving Query Efficiency of Black-box Adversarial Attack

在这里插入图片描述

在这里插入图片描述

在这里插入图片描述

在这里插入图片描述

在这里插入图片描述
在这里插入图片描述
在这里插入图片描述

论文地址:

Adversarial Patch

Robust Physical-World Attacks on Deep Learning Visual Classification

在这里插入图片描述

论文地址:

Adversarial Camouflage: Hiding Physical-World Attacks with Natural Styles

在这里插入图片描述

在这里插入图片描述

在这里插入图片描述

在这里插入图片描述

论文地址:

BadNets: Identifying Vulnerabilities in the Machine Learning Model Supply Chain

在这里插入图片描述

在这里插入图片描述

在这里插入图片描述

在这里插入图片描述
论文地址:

Towards Deep Learning Models Resistant to Adversarial Attacks

在这里插入图片描述

论文地址:

On the Convergence and Robustness of Adversarial Training

在这里插入图片描述

在这里插入图片描述

在这里插入图片描述

在这里插入图片描述
在这里插入图片描述

在这里插入图片描述

论文地址:

Adversarial Weight Perturbation HelpsRobust Generalization

在这里插入图片描述
论文地址:

Visualizing the Loss Landscape of Neural Nets

在这里插入图片描述
论文地址:

Understanding Adversarial Robustness Through Loss Landscape Geometries

INTERPRETING ADVERSARIAL ROBUSTNESS:A VIEW FROM DECISION SURFACE IN INPUT SPACE

在这里插入图片描述
在这里插入图片描述

在这里插入图片描述
在这里插入图片描述
在这里插入图片描述
在这里插入图片描述
在这里插入图片描述

在这里插入图片描述
论文地址:

Theoretically Principled Trade-off between Robustness and Accuracy

在这里插入图片描述

论文地址:

IMPROVING ADVERSARIAL ROBUSTNESS REQUIRES REVISITING MISCLASSIFIED EXAMPLES

在这里插入图片描述

在这里插入图片描述
在这里插入图片描述
在这里插入图片描述
在这里插入图片描述
在这里插入图片描述
在这里插入图片描述
论文地址:

Adversarial Neuron Pruning Purifies Backdoored Deep Models
在这里插入图片描述
论文地址:

Spectral Signatures in Backdoor Attacks

DEEP PARTITION AGGREGATION:PROVABLE DEFENSES AGAINST GENERAL POISONING
ATTACKS

Data Poisoning against Differentially-Private Learners: Attacks and Defenses

STRONG DATA AUGMENTATION SANITIZES POISONING AND BACKDOOR ATTACKS WITHOUT AN ACCURACY TRADEOFF

Neural Cleanse: Identifying and Mitigating Backdoor Attacks in Neural Networks

Fine-Pruning: Defending Against Backdooring Attacks on Deep Neural Networks

REFIT: A Unified Watermark Removal Framework For Deep Learning Systems With Limited Data

在这里插入图片描述
在这里插入图片描述

在这里插入图片描述

论文地址:

Feature Denoising for Improving Adversarial Robustness

在这里插入图片描述
在这里插入图片描述

论文地址:

Adversarial Examples Improve Image Recognition

在这里插入图片描述
在这里插入图片描述

论文地址:

Improving Adversarial Robustness via Channel-wise Activation Suppressing

在这里插入图片描述

在这里插入图片描述

在这里插入图片描述

论文地址:

Implicit Euler Skip Connections: Enhancing Adversarial Robustness via Numerical Stability

在这里插入图片描述
在这里插入图片描述

在这里插入图片描述

在这里插入图片描述
在这里插入图片描述

在这里插入图片描述

在这里插入图片描述
在这里插入图片描述
论文地址:

Unlearnable Examples: Making Personal Data Unexploitable

在这里插入图片描述
在这里插入图片描述
在这里插入图片描述
在这里插入图片描述
在这里插入图片描述
在这里插入图片描述
在这里插入图片描述
在这里插入图片描述
在这里插入图片描述

论文地址:

Unadversarial Examples: Designing Objects for Robust Vision

在这里插入图片描述
在这里插入图片描述

  • 3
    点赞
  • 8
    收藏
    觉得还不错? 一键收藏
  • 1
    评论

“相关推荐”对你有帮助么?

  • 非常没帮助
  • 没帮助
  • 一般
  • 有帮助
  • 非常有帮助
提交
评论 1
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值