- 博客(5)
- 收藏
- 关注
原创 谈一谈场景文本图片的超分辨
引言文本图像的超分辨任务做的不是很多,有专门针对文本识别的也有针对文本检测的,总而言之,带有文本序列的图像和在imangeNet里的图像是不一样的,那我们来仔细看一看文本图像大家都是怎么做的TextSR: Content-Aware Text Super-Resolution Guided by Recognition(ICML2019)动机现在文本识别技术已经在干净文本图像上取得了令人...
2020-04-27 20:17:58 4609 5
原创 对抗攻击经典论文剖析(下)【DeepFool、One pixel attack、Universal adversarial perturbations、ATN】
引言上一篇讲的几篇经典对抗攻击论文主要讲的是如何在梯度上扰动或者优化,即尽可能保证下的扰动,不被人类发现,却大大降低了模型的性能。这一篇我们将会有一些更有意思的对抗攻击样本生成,包括像素级别的扰动以及样本生成(DeepFool、One pixel attack、Universal adversarial perturbations、ATN)。DeepFool: a simple and acc...
2020-04-26 15:05:00 5082 1
原创 谈一谈在OCR/场景文本识别中的对抗攻击
引言目前对抗攻击在计算机视觉中如火如荼,作为计算机视觉的一个子领域OCR,文本识别和文本检测领域中对抗攻击的任务并不多,其中文本检测可以说是一种目标检测的任务,所以目标检测的攻击方法可以直接应用在文本检测中;文本识别是一种序列分类的任务和很多图像分类任务不同,所以攻击方法不能直接迁移,下面我们对三篇论文来看一看他们的攻击思路。Adaptive Adversarial Attack on Sce...
2020-04-22 19:13:21 5245 3
原创 Pytorch的坑之 为什么模型参数和输入不变,输出结果却变了(BN的坑)
引言不知道小伙伴使用pytorch时是否遇到了下面的情况:我们加载训练好的参数,然后输入经过网络,但是不经过梯度下降训练,也就是说模型的参数没有更改,这是我们仍然会发现我们输出的指标(例如准确率)下降。现象最近跑的一个程序,加载好预训练模型checkpoint = load_checkpoint(args.resume)model.load_state_dict(checkpoint['...
2020-04-21 17:48:26 12177 10
原创 对抗攻击经典论文剖析(上)【FGSM、BIM、PGD、Carlini and Wagner Attacks (C&W)】
最近做数据增广做的心累,想要看一看对抗攻击!这个博文会对四种经典算法进行剖析,分别是FGSM、BIM、PGD、Carlini and Wagner Attacks (C&W)。对抗攻击和防御首先我们简单来说一说对抗攻击和防御的目的。攻击就是对原始样本增加扰动生成对抗版本最大化损失函数,同时扰动尽可能地小,让人类肉眼无法察觉;防御问题是基于这种攻击方法训练一个更具鲁棒性的神经网络。数学表...
2020-04-21 16:43:05 20415 3
空空如也
空空如也
TA创建的收藏夹 TA关注的收藏夹
TA关注的人