Bias
文章平均质量分 93
zzl_1998
XMU
展开
-
【Causal-SGG】Unbiased Scene Graph Generation from Biased Training
AbstractScene Graph Generation (SGG) 存在严重的训练偏置(例如:human walk on/ sit on/ lay on beach 会坍缩成human on beach)。对于这种SGG,下游任务VQA很难推理出很好的场景结构。 SGG中传统的去偏置方法很难区分好偏执(person read book而不是eat)和坏的长尾偏置(near相较于behind/ in front of)。 本文基于causal inference而不是似然建立SGG框架。 ..原创 2021-04-22 22:21:53 · 773 阅读 · 0 评论 -
【DA 03】Exploring Categorical Regularization for Domain Adaptive Object Detection (CVPR 2020)
摘要解决目标检测的域自适应问题,其中主要是source和target域之间的巨大差异。前人的工作主要在对齐image-level和Instance-level shifts(Bias 07:DA Faster RCNN),然而,他们忽略去了crucial image regions和important instances在不同域的匹配,这会导致domain shift效果变差。本文提出一种categorical regularization framework来缓解该问题,并且作为一个plug-..原创 2020-11-29 21:01:38 · 881 阅读 · 1 评论 -
【DA 02】Domain Adaptive Faster R-CNN for Object Detection in the Wild (CVPR 2018)
摘要:目标检测通常假设训练和测试数据来自同一分布,不同分布会出现结果变差。本文致力于改善目标检测的cross-dmain robustness,通过两个level的domain shift:(1)the image-level shift,例如图片风格、光照等;(2)the instance-level shift,例如:目标外观、大小等。具体是基于Faster RCNN,建立两个domain adaptation componets,他们基于H-散度,通过在对抗训练学习一个domain ...原创 2020-11-28 11:18:02 · 492 阅读 · 0 评论 -
【DA 01】Domain-Adversarial Training of Neural Networks
Abstract本文提出一种适用于domain adaptation的representation learning方法,训练和测试数据来自相似但不同的分布。本文方法受启发于领域自适应的理论:为实现域迁移,预测必须要基于不可分辨的训练(source)和测试(target)域。 本方法适用于:在标记的source domain和未标记的target domain上训练。在训练过程中,提取出来的特征可以完成主要学习任务(例如:分类),同时通过增加gradient reversal layer,不可以区分域间原创 2020-11-26 16:50:51 · 1487 阅读 · 0 评论 -
【Bias 05】Representation Learning with Statistical Independence to Mitigate Bias
Abstract偏见是当前机器学习面对的主要问题之一,表现在从医学研究中变量的虚假关联,到性别或面部识别系统中的种族偏见。但是在数据预处理阶段控制所有的偏见是笨重,甚至不可能的,因此需要在现有数据的基础上,建立公平学习特征的模型。本文基于对抗训练建立模型,用两个竞争目标去学习特征,使得:(1)最大化对应任务的区分能力;(2)最小化偏见的statistical mean dependence。具体来说,包含一个新的adversarial loss function,该损失鼓励去掉偏见和学...原创 2020-11-26 10:44:45 · 386 阅读 · 0 评论 -
【Bias 04】Adversarial Feature Disentanglement for Place Recognition Across Changing Appearance
Abstract & IntroductionVisual place recognition: 给不同环境下的一系列图片,找到一对相同位置图片的联系。特征提取是这个任务的关键,因为appearance是改变的,需要找到不变的特征。本文提出分离domain-unrelated feature(place feature)和domain-related feature(appearance feature),其中domain-unrelated feature去place recognitio原创 2020-11-22 22:26:43 · 497 阅读 · 0 评论 -
【Bias 03】Benchmarking Robustness in Object Detection: Autonomous Driving when Winter is Coming
Related workImproving corruption robustness去除腐蚀:(1)提出一种基于DNN,恢复雨雾图片质量的方法。(2)预处理中去除雨。但这种方法都是针对某种腐蚀。 数据增强:把腐蚀数据加入训练。(1)blurred images上分类器表现脆弱,通过在blurred images上fine-tune提高对它的鲁棒性。(2)在一种腐蚀上fine-tune,并不能提高另一种腐蚀上的效果。(3)在stylized version of the ImageNet data原创 2020-11-05 17:42:31 · 387 阅读 · 0 评论 -
【Bias 02】BENCHMARKING NEURAL NETWORK ROBUSTNESS TO COMMON CORRUPTIONS AND PERTURBATIONS
摘要对图像分类的鲁棒性评估,建立benchmark。我们的第一个benchmark是ImageNet-C,它可以评估哪一个分类器更适合安全关键的应用。第二个benchmark是ImageNet-P,使得研究人员可以衡量分类器对常见扰动的鲁棒性。并且本文探究加强腐蚀和扰动的鲁棒性,本文甚至发现bypassed adversarial defense提供了对于常见扰动的鲁棒性。Related Work在某一种扰动、腐蚀上做fine-tune,并不能使得模型在其他扰动、腐蚀上表现得更好。但是在多.原创 2020-11-05 17:01:31 · 2475 阅读 · 0 评论