AI
文章平均质量分 75
人工智能相关
Elwood Ying
这个作者很懒,什么都没留下…
展开
-
使用公有云快速搭建jupyter实验环境
搜索spawn.py并在get_args处新增如下一行。nano打开之后,在文件开头加入如下内容。然后在本地9999端口即可正常使用。安装npm和nodejs。安装jupyterlab。配置Jupyterhub。原创 2023-01-07 20:04:19 · 3595 阅读 · 1 评论 -
问题解决-ImportError: IProgress not found. Please update jupyter and ipywidgets
问题解决原创 2023-01-07 20:02:37 · 3928 阅读 · 0 评论 -
机器学习笔记1
数据很重要。比如在异常检测的情况下,必须特别注意要分析的数据,因为有效的异常检测活动是以训练数据中不包含所寻找异常为前提的。此外,根据GIGO(garbage in,garbage out)原则,输入的数据如果是垃圾,输出的也会是无效的信息,换句话说,如果训练数据与正在调查的异常有偏差,则异常检测的结果可能不再具有可靠性。另外,随着数据量的激增,怎么对原始数据做初步清理也是非常重要的工作,只有做好了预处理,才能消除不相关或者冗余的信息。将恰当处理后的数据以正确的形式提供给模型,才能最大限度利用数据。比如,原创 2022-01-25 15:38:32 · 6914 阅读 · 0 评论 -
解决报错ImportError: IProgress not found. Please update jupyter and ipywidgets
在终端:pip install ipywidgets然后重启jupyter notebook即可原创 2021-10-09 09:17:44 · 11814 阅读 · 6 评论 -
云服务器做深度学习
安装图形化界面https://support.huaweicloud.com/ecs_faq/ecs_faq_0710.html在服务器上安装vnc服务端https://www.huaweicloud.com/articles/aacf2c602f7d51e0f5d87e2c9f6d4588.htmlhttps://bbs.huaweicloud.com/blogs/detail/208176安装完毕之后看看端口然后配置安全组接着在本地使用vnc客户端连接即可注意,只取你设置密码时的前原创 2021-09-29 20:45:24 · 416 阅读 · 0 评论 -
快速配置深度学习环境
查看版本适配https://blog.csdn.net/caiguanhong/article/details/112184290https://tensorflow.google.cn/install/sourcepytorch查看gpuhttps://blog.csdn.net/nima1994/article/details/83001910Import torchtorch.cuda.is_available()cuda是否可用;torch.cuda.device_count()原创 2021-09-29 20:43:07 · 548 阅读 · 0 评论 -
西安交大人工智能课程设置
这是结合指南以及个人所需备注的,可能不适用于所有人本课程为模式识别与智能系统、控制科学与工程、计算机科学、软件工程、信息安全、电子信息、管理科学、应用数学等学科研究生的专业普及课。本课程主要讲述矩阵代数和最优化计算法等人工智能的数学基础,以及矩阵分析、子空间分析、机器学习中的优化模型、一阶求解算法和二阶求解算法及其收敛性理论。通过本课程的学习,希望学生对常用的矩阵代数和最优化计算法有初步的了解,掌握机器学习优化模型的建立方法以及求解这些优化模型的算法设计思路、算法收敛性结果的证明方法,了解机器学习中优化方原创 2021-09-29 19:58:45 · 907 阅读 · 0 评论 -
csvadvsd
目前大多数WAF都是基于模式匹配的从WAF的角度来看,web攻击类型可以分为:基于时间序列的,包括暴力破解、扫描、ddos等基于http 请求、响应的,包括SQL注入、XSS、XEE、路径遍历、命令执行等用机器的学习的方法对这两种类型的攻击都可以做检测我们关注第二种类型模式匹配的优缺点是很明显的:优点:能有效检测已知攻击向量容易维护决策可解释、可预测开箱即用(work out of the box)缺点:受限于已知攻击容易被bypass在面对0day等攻击方式时并非有效需要专原创 2021-09-19 22:02:47 · 120 阅读 · 0 评论 -
终端环境如何下载谷歌网盘google drive文件
1wegt https://api.moeclub.org/GoogleDrive/1hmqKZcyyU9sdptJuz1vrAjh_qt3rrYiT后面的id换成你要下载的文件的id即可我用这一个办法就可以了其他的办法还有见:https://www.cxyzjd.com/article/weixin_41579863/114954332原创 2021-09-17 16:19:07 · 1827 阅读 · 0 评论 -
libSM.so.6报错解决
出现报错ImportError: libSM.so.6: cannot open shared object file: No such file or directory时,可以用安装opencv-python-headless原创 2021-09-17 09:29:56 · 535 阅读 · 0 评论 -
迁移学习中的后门攻击
#前言一般的后门攻击技术,其攻击场景具有非常明显的假设:攻击者能够控制模型的训练过程、训练集,在训练得到毒化模型后直接将其提供给用户,用户上手就用。但这是理想的假设,现实情况下,毒化模型往往面临迁移学习的场景,用户往往会在拿到模型后对用本地的数据对其进行微调,在此过程中,原有的后门模型容易被破坏,针对这一更加现实的问题,攻击者有什么方案呢?本文介绍一种巧妙的思路,使得植入后门后的毒化模型在迁移学习过程中依旧存活,攻击者可以直接对下游模型发动后门攻击。该技术来自信息安全big4之一ccs,2019,论文名为原创 2021-09-07 15:44:45 · 1238 阅读 · 5 评论 -
Jupyter notebook切换kernel可以使用conda虚拟环境中的库
Jupyter notebook切换kernel可以使用conda虚拟环境中的库首先Conda create -n xxx python=3.6创建名为xxx的虚拟环境激活该虚拟环境Conda activate xxx在该虚拟环境下安装ipykernel,它可以添加内核Pip install ipykernel然后将虚拟环境加入内核中Python -m ipykernel install --name=xxx --user要进入jupyter notebook的时候从base中进去就可以了原创 2021-09-06 20:36:16 · 577 阅读 · 0 评论 -
《人工智能本科专业知识体系与课程设置》笔记
今天看到一本书《人工智能本科专业知识体系与课程设置》,清华大学出版社出版的,由西安交大的老师们编写的,感觉里面的内容设置对于非人工智能科班出身的同学们会有一定帮助,能够了解自己哪些地方还有什么不足。但是要注意的是,这是给本科开设的课程,如果已经进入研究阶段了,一些通识性的、非必修的课可以视自身情况而决定是否有必要补上数学与统计课程群工科数学分析空间曲线的曲率与挠率实验环节:基于matlab软件的计算方法迭代法最优化方法数据拟合数据差值数值积分微分方程的数值解方法###线性代数与解析原创 2021-05-29 09:24:47 · 2195 阅读 · 0 评论 -
深度学习部分实验(粗略)
近一个月在做实验的时候光顾着截图一个最后的结果,没有给保留代码等,这篇博客里是最近一个月做的一些小实验。后续发实验类的博客的时候尽量把必要背景知识、代码等加上。这次就先勉强看看吧在生成领域,自编码器是GAN的前身,今天用VAE在MNIST做了生成实验,图1是10个class到latent space的投影,从投影就可以看出,同一类会尽量分在一起,说明latent space是很好的表示。图2是解码器输出的情况。整个流程就是图像-》编码器-》采用-》解码器-》图像图一图二另外今天在跑实验的时候由于原创 2021-05-27 20:56:12 · 874 阅读 · 5 评论 -
深度学习后门攻防综述
0x00后门这个词我们在传统软件安全中见得很多了,在Wikipedia上的定义[1]为绕过软件的安全性控制,从比较隐秘的通道获取对程序或系统访问权的黑客方法。在软件开发时,设置后门可以方便修改和测试程序中的缺陷。但如果后门被其他人知道(可以是泄密或者被探测到后门),或是在发布软件之前没有去除后门,那么它就对计算机系统安全造成了威胁。那么相应地,在深度学习系统中也存在后门这一说法,这一领域由Gu等人2017年发表的BadNets[2]和Liu等人2017年发表的TrojanNN[3]开辟,目前是深度学习安原创 2021-05-25 10:02:30 · 13143 阅读 · 5 评论 -
如何攻击深度学习系统?--可解释性及鲁棒性研究
0x00人工智能广泛渗透于我们的生活场景中,随处可见。比如人脸识别解锁、人脸识别支付、语音输入,输入法自动联想等等,不过这些场景其实传统的模式识别或者机器学习方法就可以解决,目前来看真正能代表人工智能最前沿发展的莫过于深度学习,尤其是深度学习在无人驾驶、医疗决策(如通过识别拍片结果诊断是否有相应疾病)领域的应用。不过深度学习存在所谓的黑箱问题,由此带来了不可解释性,而这一点如果不能解决(事实上目前为止还没有很好解决)将会导致在深度学习在对安全性很敏感的领域中应用的受限。比如将其应用在医疗领域时,深度学习原创 2021-05-25 09:55:56 · 2491 阅读 · 0 评论 -
主题模型分析漏洞趋势
趋势分析是一种统计方法,它通过将从某个观察目标获得的数据视为一个时间序列来估计数据趋势。趋势分析的方法很多,我们本次实验使用称为“主题模型”(topic model)的方法进行趋势分析我们将会对漏洞信息进行趋势分析并估算漏洞趋势。具体来说,我们使用主题模型分析2018年报告的漏洞信息,并掌握2018年的漏洞趋势。本次实验涉及到机器学习中的两个关键词,即Topic model和LDA,这两者是什么关系呢?先来学习主题模型。主题模型在机器学习和自然语言处理等领域是用来在一系列文档中发现抽象主题的一种统计原创 2021-05-22 09:36:19 · 430 阅读 · 0 评论 -
k-means聚类攻击类型
本次实验用到的数据集为”KDD CUP 99 dataset ”,就是KDD竞赛在1999年举行时采用的数据集。1998年美国国防部高级规划署(DARPA)在MIT林肯实验室进行了一项入侵检测评估项目。林肯实验室建立了模拟美国空军局域网的一个网络环境,收集了9周时间的 TCPdump网络连接和系统审计数据,仿真各种用户类型、各种不同的网络流量和攻击手段,使它就像一个真实的网络环境。这些TCPdump采集的原始数据被分为两个部分:7周时间的训练数据 大概包含5,000,000多个网络连接记录,剩下的2周时间原创 2021-05-22 09:33:43 · 893 阅读 · 0 评论 -
卷积神经网络识别负面评论
我们先来看看CNN的架构传统的DNN(即Deep neural network,泛指一般的深度学习网路)最大问题在于它会忽略资料的形状。例如,输入影像的资料时,该data通常包含了水平、垂直、color channel等三维信息,但传统DNN的输入处理必须是平面的、也就是为一维的。比如使用DNN来分类MNIST手写数字集吗?其图像信息是水平28 pixels、垂直28 pixels、color channel=1,即(1, 28, 28)的形状,但输入DNN时,所有dataset必须转为一维的datase原创 2021-05-21 21:09:48 · 1394 阅读 · 5 评论 -
机器学习之投毒攻击
1.投毒攻击如果机器学习模型是根据潜在不可信来源的数据(例如Yelp、Twitter等)进行训练的话,攻击者很容易通过将精心制作的样本插入训练集中来操纵训练数据分布,以达到改变模型行为和降低模型性能的目的.这种类型的攻击被称为“数据投毒”(Data Poisoning)攻击,它不仅在学术界受到广泛关注,在工业界也带来了严重危害.例如微软Tay,一个旨在与Twitter用户交谈的聊天机器人,仅在16个小时后被关闭,只因为它在受到投毒攻击后开始提出种族主义相关的评论.这种攻击令我们不得不重新思考机器学习模型的原创 2021-05-21 21:05:08 · 18391 阅读 · 22 评论 -
Softmax回归识别验证码(手写数字)
我们首先来学习softmax regression和one-hot encoding。这次本次实验需要学习和机器学习相关的两个重要概念。我们之前学过逻辑回归。由于Logistic Regression算法复杂度低、容易实现等特点,在工业界中得到广泛使用,如计算广告中的点击率预估等。但是,Logistic Regression算法主要是用于处理二分类问题,若需要处理的是多分类问题,如手写字识别,即识别是{0,1,…,9}中的数字,此时,需要使用能够处理多分类问题的算法。Softmax Regression算原创 2021-05-21 21:00:53 · 1309 阅读 · 2 评论 -
循环神经网络检测异常操作
神经网络可以当做是能够拟合任意函数的黑盒子,只要训练数据足够,给定特定的x,就能得到希望的y,结构图如下:将神经网络模型训练好之后,在输入层给定一个x,通过网络之后就能够在输出层得到特定的y,那么既然有了这么强大的模型,为什么还需要RNN(循环神经网络)呢?他们都只能单独的取处理一个个的输入,前一个输入和后一个输入是完全没有关系的。但是,某些任务需要能够更好的处理序列的信息,即前面的输入和后面的输入是有关系的。标准的全连接神经网络(fully connected neural network)处理序原创 2021-05-21 20:56:44 · 1107 阅读 · 0 评论 -
支持向量机检测DGA
先来介绍支持向量机。其英文全称是Support Vector Machines。支持向量机是我们用于分类的一种算法。支持向量机 (SVM) 是一个非常经典且高效的分类模型。但是,支持向量机中涉及许多复杂的数学推导,并需要比较强的凸优化基础,在参考链接中读者可以参考相关文章,学习从零推导SVM,这里仅以简单地图示帮助大家了解。在SVM中,选择超平面以最佳地将输入变量空间中的点与它们的类(0级或1级)分开。超平面是纯粹的数学概念,不是物理概念,它是平面中的直线、空间中的平面的推广,只有当维度大于3,才称为“原创 2021-05-21 12:34:48 · 793 阅读 · 0 评论 -
K近邻算法检测meterpreter
K近邻算法,即是给定一个训练数据集,对新的输入实例,在训练数据集中找到与该实例最邻近的K个实例,这K个实例的多数属于某个类,就把该输入实例分类到这个类中。以下图为例有两类不同的样本数据,分别用蓝色的小正方形和红色的小三角形表示,而图正中间的那个绿色的圆所标示的数据则是待分类的数据。来了一个新的数据点,我要得到它的类别是什么如果K=3,绿色圆点的最邻近的3个点是2个红色小三角形和1个蓝色小正方形,少数从属于多数,基于统计的方法,判定绿色的这个待分类点属于红色的三角形一类。如果K=5,绿色圆点的最邻近的5原创 2021-05-21 12:31:44 · 345 阅读 · 0 评论 -
决策树算法检测telnet暴力破解
首先来了解什么是决策树决策树算法采用树形结构,使用层层推理来实现最终的分类。决策树由下面几种元素构成:根节点:包含样本的全集内部节点:对应特征属性测试叶节点:代表决策的结果预测时,在树的内部节点处用某一属性值进行判断,根据判断结果决定进入哪个分支节点,直到到达叶节点处,得到分类结果。这是一种基于 if-then-else 规则的有监督学习算法,决策树的这些规则通过训练得到,而不是人工制定的。举个例子给出如下的一组数据,一共有十个样本(学生数量),每个样本有分数,出勤率,回答问题次数,作业提交原创 2021-05-21 12:26:00 · 497 阅读 · 0 评论 -
XGBoost识别恶意程序
XGBoost,全称eXtreme Gradient Boosting。XGBoost本身是GBDT的一个高性能的开源库,是陈天奇等人于2014年开发,即可用于分类,也可用于回归。我们从三个方面来学习XGBoost:Tree Ensemble Model: 提升树模型Object Function:XGBoost 目标函数及其求解Optimization:寻找最佳分裂点Tree Ensemble Model首先,XGBoost与GBDT一样,也是boosting模型,对于boosting dec原创 2021-05-20 23:51:21 · 545 阅读 · 1 评论 -
朴素贝叶斯算法检测DGA
僵尸网络&恶意软等程序,随着检测手段的更新(在早期,僵尸主机通产采用轮询的方法访问硬编码的C&C域名或IP来访问服务器获取域名,但是这种方式在安全人员进行逆向之后会得到有效的屏蔽),黑客们也升级了肉鸡的C&C手段;用DGA算法在终端生成大量备选域名,而攻击者与恶意软件运行同一套DGA算法,生成相同的备选域名列表。当需要发动攻击的时候,选择其中少量进行注册,便可以建立通信,并且可以对注册的域名应用速变IP技术,快速变换IP,从而域名和IP都可以进行快速变化。目前,黑客攻击者为了防止恶原创 2021-05-20 23:46:34 · 931 阅读 · 3 评论 -
自动编码器检测检测信用卡欺诈
首先我们来学习自动编码器。自动编码器是一种无监督机器学习算法、有三层的神经网络:输入层、隐藏层(编码层)和解码层。该网络的目的是重构其输入,使其隐藏层学习到该输入的良好表征。其应用了反向传播,可将目标值设置成与输入值相等。自动编码器属于无监督预训练网络(Unsupervised Pretained Networks)的一种。其结构如下图所示:自动编码器的目标是学习函数 h(x)≈x。换句话说,它要学习一个近似的恒等函数,使得输出 x^ 近似等于输入 x。自动编码器属于神经网络家族,但它们也和 PCA(原创 2021-05-20 23:43:25 · 867 阅读 · 1 评论 -
深度神经网络识别垃圾邮件
电子邮件是较常用的网络应用之一,已经成为网络交流沟通的重要途径。但是,垃圾邮件(spam)烦恼着大多数人,调查显示,93%的被调查者都对他们接收到的大量垃圾邮件非常不满。一些简单的垃圾邮件事件也造成了很有影响的安全问题。垃圾邮件给互联网以及广大的使用者带来了很大的影响,这种影响不仅仅是人们需要花费时间来处理垃圾邮件、占用系统资源等,同时也带来了很多的安全问题。垃圾邮件占用了大量网络资源,这是显而易见的。一些邮件服务器因为安全性差,被作为垃圾邮件转发站为被警告、封IP等事件时有发生,大量消耗的网络资源使得原创 2021-05-20 23:39:05 · 2410 阅读 · 8 评论 -
逻辑回归算法检测java_meterpreter
本次实验我们来学习使用逻辑回归算法来检测java meterpreter.先来学习逻辑回归算法首先需要搞懂逻辑回归与线性回归(Linear Regression)的区别,虽然二者都带有“回归”二字,但是用来解决不同的问题。线性回归解决“回归”问题,用一条直线来拟合所有的点,例如探究某超市的销售额与小区常住人口数的关系;而逻辑回归则解决“分类”问题,例如可预测一封邮件是否为垃圾邮件,预测客户是否会发生债务违约等。逻辑回归算法分三步进行,首先,我们需要确定一个预测函数,即预测出一个值来判断归属哪一类,可定原创 2021-05-18 16:07:25 · 570 阅读 · 2 评论 -
多层感知机识别垃圾短信
感知器(Perceptron)是ANN人工神经网络的一个概念,由Frank Rosenblatt于1950s第一次引入。单层感知器(Single Layer Perceptron)是最简单的ANN人工神经网络。它包含输入层和输出层,而输入层和输出层是直接相连的。单层感知器仅能处理线性问题,不能处理非线性问题。本次我们进行实验的是MLP多层感知器。MLP多层感知器是一种前向结构的ANN人工神经网络, 多层感知器(MLP)能够处理非线性可分离的问题。MLP可以被看做是一个有向图,由多个节点层组成,每一层全连原创 2021-05-18 16:02:23 · 650 阅读 · 1 评论 -
机器学习之逃逸攻击
逃逸攻击逃逸攻击是指攻击者在不改变目标机器学习系统的情况下,通过构造特定输入样本以完成欺骗目标系统的攻击。例如,攻击者可以修改一个恶意软件样本的非关键特征,使得它被一个反病毒系统判定为良性样本,从而绕过检测。攻击者为实施逃逸攻击而特意构造的样本通常被称为“对抗样本”。只要一个机器学习模型没有完美地学到判别规则,攻击者就有可能构造对抗样本用以欺骗机器学习系统。前面我们学习了如何将AI应用于网络安全领域,那么AI自身是否会受到安全威胁呢?答案是肯定的。AI模型的完整性主要体现在模型的学习和预测过程完整不受原创 2021-05-18 15:57:55 · 2156 阅读 · 1 评论 -
神经网络检测webshell
从题目可以看到本次实验的主题有两个关键字,神经网络和webshell。Webshell是黑客经常使用的一种恶意脚本,其目的是获得服务器的执行操作权限,比如执行系统命令、窃取用户数据、删除web页面、修改主页等,其危害不言而喻。黑客通常利用常见的漏洞,如SQL注入、远程文件包含(RFI)、FTP,甚至使用跨站点脚本攻击(XSS)等方式作为社会工程攻击的一部分,最终达到控制网站服务器的目的。实验室相关的实验有很多,这里不过多展开介绍。我们来学习什么是神经网络。我们以一个简单的分类任务为例,已知四个数据点(1原创 2021-05-18 15:54:13 · 505 阅读 · 0 评论 -
colab使用自己的数据
从笔记本本地上传从google drive加载使用colab时加载google drive的数据首先将所用数据上次到google drive上然后打开colab输入即可原创 2021-05-18 14:58:38 · 400 阅读 · 0 评论 -
MNIST-GAN笔记一
对于MNIST图像分类,改良的方法:1.将损失从事偶从MSELoss改为BCELoss即从均方误差改为二元交叉熵损失均方误差适合回归任务,即神经网络的输出值被设计为连续范围的值而对于分类任务,二元交叉熵损失更适合,它同时惩罚置信度高的错误输出和置信度低的正确输出。修改之后,结果如下可以看到损失值在下降,不过下降的速度比MSELoss慢,损失值的噪声也更大,以至于训练的后期偶尔也有较高的损失值出现打印出测试数据集对于第19副图像的输出值,可以看到判断为4的置信度提升了,为9的置信度降低了。原创 2021-05-18 14:57:03 · 396 阅读 · 1 评论 -
<A Tale of Evil Twins: Adversarial Inputs versus Poisoned Models>阅读笔记
A Tale of Evil Twins: Adversarial Inputs versus Poisoned ModelsAbstract:其中对对抗样本的定义是会欺骗DNN模型;对poisoned model的定义是会在预定义的input上misbehave的被恶意修改过的模型关于他们基础连接的基础还缺乏理解:这两个攻击向量之间的动态交互是什么?这种交互对优化已存在攻击的影响是什么?对抗加强后的攻击的可能的防御措施有什么?回答这些问题对于我们评估和缓解在实际应用中被部署的DNN面临的全方面漏洞有原创 2021-02-06 11:00:16 · 784 阅读 · 0 评论 -
<Fine-Pruning: Defending Against Backdooring Attacks on Deep Neural Networks>阅读笔记
Abstract提出了第一个针对后门攻击的有效的方案。我们根据之前的工作实现了三种攻击并使用他们来研究两种有希望的防御,即Pruning和fine-tuning。我们的研究表明,没有一个可以抵御复杂的攻击。我们然后评估了fine-pruning,这是结合了Pruning和fine-tuning,结果表明它可以削弱或者消除后门攻击,在一些例子中可以攻击成功率为0%,而良性输入的准确率下降只有0.4%。1 Introduction我们发现后门利用的是神经网络中的spare capacity,所以我们很自然原创 2021-02-05 15:51:05 · 1969 阅读 · 2 评论 -
<DeepInspect: A Black-box Trojan Detection and Mitigation Framework for Deep Neural Networks>阅读笔记
DeepInspect: A Black-box Trojan Detection and Mitigation Framework for Deep Neural NetworksAbstract在部署模型之前检查预训练好的模型是否被注入后门是必要的。我们本文的目标是强调未知DNN应对神经木马Neural Torjan(NT)攻击的风险,并确保模型部署的安全。我们提出了DeppInsepct,这是第一个只需要最小量模型先验知识,黑箱情况下的木马检测方案。DeppInspect使用条件生成模型condi原创 2021-02-04 08:43:59 · 1021 阅读 · 1 评论 -
<DeepPayload(DeepBackDoor): Black-box Backdoor Attack on Deep Learning Models >阅读笔
Abstract在本文中,我们介绍了一种带有针对已编译的深度学习模型的一系列逆向工程技术的高效的黑盒攻击手段。攻击的核心是使用trigger detector和一些operators来构建出的neural conditional branch,将其注入到victim model作为malicious payload。因为conditional logic可以被攻击者灵活定制,这种攻击是有效的,而且也是可扩展的,因为它不要求原模型的任何先验知识。我们使用5个先进的深度学习框架以及从真实世界收集的样本评估了其原创 2021-02-02 15:37:36 · 856 阅读 · 0 评论 -
<On Evaluating Neural Network Backdoor Defenses>阅读总结
Abstract最近有一系列针对后门攻击的防御措施被提出来,我们在本文中进行了一些关键的分析并指出这些已有防御手段的共有的缺陷.在最后我们指出了未来可以进一步发展鲁棒防御以及避免已经发现的失误的建议。Introduction5种防御手段与三种缺陷的对应如下Threat Model和被的后门攻击的常见假设一样,这里不写了。Experimental Setup我们创建了包含一系列后门szie/shape和攻击目标的BadNets,具体如下Identifying Pitfalls in Exi原创 2021-02-02 10:41:46 · 361 阅读 · 0 评论