- 博客(54)
- 收藏
- 关注
原创 PyTorch:DistributedDataParallel(DDP)学习
PyTorch:DistributedDataParallel纸上谈兵(无实际测过)
2022-04-12 19:38:10
1803
原创 Dataset Distillation by Matching Training Trajectories
2022.3.28 第11篇 CVPR2022 精读
2022-03-28 17:52:06
4068
原创 Enhancing Knowledge Tracing via Adversarial Training
论文链接文章目录Prior KnowledgeIntroductionContributionsApproachProblem FormulationExperimentConclusionPrior KnowledgeKnowledge Tracing(KT):使用学生的历史学习数据来模拟他们在一段时间内的知识掌握情况,从而预测他们未来的表现。举个例子:如下图所示,有一个学生做了1-4四题练习题,其中1、2、4做对了,3做错了,那么自然而然可以看出学生对第三题Linear Equations这个概念.
2022-02-16 13:24:32
659
原创 Architecture Disentanglement for Deep Neural Networks
2022.2.11 第6次 简读 ICCV2021(Oral)
2022-02-11 21:33:20
278
原创 2022.2.1 arxiv速览
2022.2.1 第五次 arxiv论文速览Debiased-CAM to mitigate systematic error with faithful visual explanations of machine learning论文链接:https://arxiv.org/pdf/2201.12835.pdf机构:National University of Singapore,CSIC-UPC背景:Despite the fidelity of CAMs on clean images, r
2022-02-01 19:55:35
2817
原创 2022.1.23论文速览
2022.1.24 第三次 论文速览文章目录Graph-based High-order Relation Modeling for Long-term Action Recognition(CVPR2021)目的方法GCN-SE: Attention as Explainability for Node Classification in Dynamic Graphs (ICDM2021)目的方法Predicting Customer Value with Social Relationships vi
2022-01-24 09:54:12
2267
原创 常见攻击的t-SNE可视化
今天做实验顺便用t-SNE可视化了一下常见的对抗攻击方法。本文使用了CIFAR10数据集,且用了ResNet18模型,测试精度是94.78%,使用了FGSM、PGD、CW、JSMA、LocalSearch五种攻击方法,均来自advertorch包参数设置如下: if args.attack == 'FGSM': attack = GradientSignAttack(model, eps=0.3, targeted=False) elif args.attack == '
2022-01-12 13:44:46
2005
2
原创 Invisible Backdoor Attack with Sample-Specific Triggers
论文链接: Invisible Backdoor Attack with Sample-Specific Triggers代码链接:Invisible Backdoor Attack with Sample-Specific Triggers文章目录IntroductionIntroduction
2022-01-10 18:35:25
3076
3
原创 Adversarial Example Detection Using Latent Neighborhood Graph
2021.12.30 第11篇(ICCV2021) 精读
2021-12-30 21:41:32
1970
原创 Detecting Adversarial Samples Using Influence Functions and Nearest Neighbors
2021.12.24 第10篇(CVPR2020) 粗读
2021-12-24 18:00:21
1844
原创 Shallow-Deep Networks: Understanding and Mitigating Network Overthinking
2021.12.20 第9篇(ICML2019) 半精读
2021-12-20 16:12:20
554
原创 Understanding Deep Networks via Extremal Perturbations and Smooth Masks
2021.12.11 第7篇(ICCV2019) 简读
2021-12-11 22:30:44
1202
原创 View-Aware Geometry-Structure Joint Learning for Single-View 3D Shape Reconstruction
2021.12.9 第5篇(TPAMI2021) 粗读
2021-12-09 13:56:11
282
1
原创 Fast is better than free: Revisiting adversarial training
2021.12.7 第四篇(ICLR2020) 半精读
2021-12-07 15:06:12
1933
2
原创 Clustering Effect of (Linearized) Adversarial Robust Models
2021.12.6 第三篇(NeurIPS 2021)半精读
2021-12-06 11:22:39
268
原创 Feature Importance-aware Transferable Adversarial Attacks
2021.12.5 第二篇(ICCV2021)精读原文链接:Feature Importance-aware Transferable Adversarial Attacks代码链接:Feature Importance-aware Transferable Adversarial AttacksContributionspropose Feature Importance-aware Attack (FIA) that enhances the transferability of adver
2021-12-05 19:21:16
447
原创 Learning Transferable Adversarial Perturbations
在知乎上关注了一个大佬ZehaoDou窦泽皓,基本做到每天或者隔两天更新一篇已读论文,特别佩服大佬的毅力,因此想像他学习,也算记录自己读过的部分论文,方便下次查找。最后附送大佬主页:ZehaoDou 窦泽皓2021.12.4 第1篇(NeurIPS 2021) 精读原文链接:Learning Transferable Adversarial Perturbations代码链接:Learning Transferable Adversarial Perturbations(截止目前,作者还只传了个壳)
2021-12-04 21:58:13
4480
原创 Torch对tensor的操作
本文不定期更新Torch对tensor的操作,以便自己翻阅。torch.arange包括start但不包括endtorch.arange(start=0, end=10)output: tensor([0, 1, 2, 3, 4, 5, 6, 7, 8, 9])torch.range包括start也包括endtorch.range(start=0, end=10)output: tensor([ 0., 1., 2., 3., 4., 5., 6., 7., 8.,
2021-11-28 23:44:25
1602
原创 Masked Autoencoders Are Scalable Vision Learners
作为学术菜鸡的我跪着看完了kaiming大佬的论文,先po一个大佬主页:Kaiming He在讲Masked Autoencoders Are Scalable Vision Learners这个之前,由于笔者对Transformer没有太深理解,因此会穿插一些transformer以及ViT的知识,那么接下来就废话不多说进入正题吧。Masked Autoencoders Are Scalable Vision LearnersViT在讲MAE之前,为了更好的理解其思想,这里先简单的介绍下ViT。
2021-11-22 13:53:25
3537
1
空空如也
空空如也
TA创建的收藏夹 TA关注的收藏夹
TA关注的人