机器学习
007_rbq
007rbq
展开
-
物理世界中的对抗样本
正如在数字空间中存在对抗样本,研究者发现在物理世界中也存在对抗样本,研究人员将对抗性补丁打印出来挂在人的身前,就能让目标检测算法YOLOv2失效。源代码链接:https://gitlab.com/EAVISE/adversarial-yolo。test_patch.py文件用来测试跑出来的patch的攻击性怎么样。- proper_patched: 在图像上添加扰动, 并保存检测结果。patch的config文件patch_config.py。真正核心的文件是train_patch.py文件。原创 2023-05-01 00:00:00 · 563 阅读 · 1 评论 -
deepfool攻击pytorch代码
目前,没有有效率的方法可以用来精确的计算深度模型对对抗扰动的鲁棒性。在这篇论文中,提出了DeepFool的算法来生成扰动,并且提出了一种量化分类器鲁棒性的方法。FGSM虽然快,但是它只是提供了最优扰动的一个粗略的估计,它执行的梯度的方法,经常得到的是局部最优解,DeepFool能够得到更小的扰动,甚至比FGSM小一个数量级。提出了一种计算分类器对对抗扰动的鲁棒性的评价方法。上面这些代码都可以复用的所以我直接用。下面这部分是非定向攻击的代码。直接放pytorch代码吧。下面这部分是定向攻击的代码。原创 2023-04-29 04:00:00 · 615 阅读 · 0 评论 -
C&W攻击代码pytorch实现
C&W攻击是数字空间中的对抗攻击算法,下面使用到的一些函数和代码。原创 2023-04-29 07:00:00 · 1443 阅读 · 1 评论 -
MNIST手写数字识别pytorch
可以说是非常入门了,就是全连接神经网络预测手写数字,没用到卷积,准确率在98%以上。原创 2023-04-28 17:18:34 · 98 阅读 · 0 评论 -
【对抗样本】FGSM方法生成对抗样本
深度神经网络已经在图像识别、语音识别等方面取得优秀成果。但是深度神经网络也有它的脆弱性,在面对对抗样本的时候,会出现错误分类,今天将根据FGSM的方法生成相应的对抗样本。使用的是jupyter notebook。原创 2023-04-28 20:00:00 · 463 阅读 · 1 评论 -
两篇物理对抗攻击的survey。
给个star。原创 2023-02-16 20:42:36 · 142 阅读 · 0 评论 -
使用faster rcnn进行目标检测(pytorch)
在被称为FasterR-CNN的后续工作中,主要的见解是这两个部分-计算区域提案和图像分类-可以使用相同的特征图,从而分担计算负荷。翻译 2023-02-16 14:39:43 · 487 阅读 · 0 评论 -
【图像识别】cifar10数据集用resnet18实现90%测试集精度
训练100个epoch,多训练可能还会再涨,不过不浪费时间了。图像识别任务到此结束。下次更一些目标检测和对抗攻击。之前的测试精度大概在82%点几,用了resnet18,效果达到89.69%学习了大半年的深度学习,开始跑的第一个效果较好的模型。在数据处理的时候Pad(4)有用。原创 2023-02-13 19:41:52 · 813 阅读 · 1 评论 -
【Viterbi算法】HMM前向、后向及维特比算法的Python实现
代码可供参考.例子大概就是4个盒子,两种球(红和白),观察的结果O={红 红 白 白 红}原创 2023-01-04 13:12:17 · 267 阅读 · 0 评论