保研
文章平均质量分 93
保研相关的内容
call me by ur name
从此以后
展开
-
2023暑研经历总结
课题三 国家重点研发计划 连续目标跟踪时间:2023.7.6——2023.8.17。原创 2024-05-05 13:10:52 · 468 阅读 · 0 评论 -
《Adversarial Attacks and Defenses in Deep Learning: From a Perspective of Cybersecurity》论文解读
本文首先强调了深度学习技术在多种任务中的广泛应用和取得的显著成就,尤其是深度学习在图像识别、语音识别、自然语言处理等领域的关键作用。然而,作者们也指出了深度学习模型的一个主要问题:对抗性样本的存在使得深度学习模型的安全性和稳定性受到威胁。对抗性样本是指通过在原始数据中添加精心设计的微小扰动,导致深度学习模型以高概率给出错误预测的样本。这些扰动对于人类来说通常是难以察觉的,但对模型的预测结果却有显著的影响。这种现象在自动驾驶车辆、安全监控等关键领域尤为令人担忧,因为模型的失败可能导致严重的安全事故。原创 2024-05-03 18:12:34 · 548 阅读 · 0 评论 -
《A Review of Adversarial Attack and Defense for Classification Methods》论文解读
对抗性攻击的概念:对抗性攻击是指在已知的自然样本和受害模型的基础上,通过精心设计的小扰动来生成对抗性示例的过程。对抗性示例的重要性:作者提到,对抗性示例的存在对于在安全敏感领域部署DNNs或相关方法构成了严重的问题,如自动驾驶汽车、飞行控制系统和医疗系统等。泛化与对抗性攻击:尽管DNNs在训练集上表现出色,但它们容易受到对抗性攻击的影响,这些攻击通过向输入添加精心设计的扰动来误导模型。攻击的优化问题:对抗性攻击通常被表述为一个优化问题,目标是在保持输入外观不变的同时最大化分类器的损失函数。原创 2024-05-02 18:09:17 · 521 阅读 · 0 评论 -
Query-Efficient Black-Box Adversarial Attack With Customized Iteration and Sampling(论文解读,代码复现)
黑盒攻击无法像白盒攻击一样直接计算目标模型的梯度,因此不太可能通过gradient-based or optimization-based攻击来得到拥有小噪声强度的对抗样本对于黑盒攻击,只能通过查询目标模型,得到输出(往往是硬标签),这种查询成本高。在有限查询的条件下,要压缩已经得到的对抗样本的噪声难度大而现有的黑盒攻击存在问题modeltransfer-based攻击在替代模型上往往过拟合(对抗样本(包含其步长、迭代次数)只在替代模型上有效),目标模型无法错误分类此对抗样本。原创 2024-04-25 16:01:44 · 1002 阅读 · 0 评论 -
省创暨srdp项目复盘
项目时间:2022.7.13——2023.???原创 2023-10-12 13:16:34 · 360 阅读 · 0 评论 -
Efficient Decision-based Black-box Patch Attacks on Video Recognition(背景、本文要解决的问题、创新点、方案和实验、代码复现)
EfficientDecision−basedBlack−boxPatchAttacksonVideoRecognitionpatch 包括 texture, position, shape。原创 2024-03-20 12:46:06 · 1009 阅读 · 0 评论