高斯分布(Guassian Distribution)建模不确定度(Uncertainty)问题

高斯模型建模不确定度问题

参考文章:
Robust Person Re-identification by Modelling Feature Uncertainty
GLENet: Boosting 3D Object Detectors with Generative Label Uncertainty Estimation

噪声分类

在实践中,两种噪声是普遍的:
(1)人工标注产生的标注误差噪声
(2)扫描过程信号丢失或遮挡引用的数据噪声

解决方案有二:特征提取角度&标签优化角度

特征提取角度:如何从特征空间角度处理intra-class和inter-class问题

在这里插入图片描述

在这里插入图片描述
一般的卷积神经网络在缩近类内距离的过程中会破坏类间的分隔独立性。在DistributionNet中,每张图片都被表示为一个高斯分布,均值表示正常的特征向量,方差度量了此特征的不确定度。训练过程中噪音样本会有更高的方差,会对特征空间有更小的影响。网络会更多关注干净、非离群的样本,可以产生更好的类间分隔独立性。
从分布中我们随机采样特征向量,与均值特征向量一同参与损失计算,但普通的随机采样过程会破坏端到端训练的梯度反传过程,在此我们会使用一个重新参数化技巧,使得整个过程可以被端到端进行训练。
在这里插入图片描述
分类损失便由两部分组成:第一部分为高斯分布的均值与ground truth计算的损失,第二部分为根据高斯分布采样的N个特征向量的损失平均值,我们设置了一个权重 λ = 0.1 \lambda=0.1 λ=0.1限制第二部分损失对整个网络优化的影响。
在这里插入图片描述
另外,为了避免模型训练优化使得各通道方差趋于0最终与普通卷积神经网络一致,对噪声样本过度拟合,我们设置了Feature Uncertainty Loss。显然,模型会维持训练样本的总不确定性/方差。由于干净的样本对应的分类损失更小,因此模型的总方差更多会被分配到噪声样本。
在这里插入图片描述

两个关键问题

基于以上的讨论,DistributionNet会呈现两种事实:
(1)它会给噪音样本(错误标注或离群值)分配更大的方差预测,给干净样本分配更小的方差。
(2)大方差的噪音样本在训练中会对特征空间的学习产生的影响更小。

那么两个关键问题油然而生:
(1)Why large variances for noisy samples?
(2)Why samples with larger variance contribute less for modeltraining?

第一个问题:
这是由于离群或者是错误标注的样本,离样本中心的距离会更远,这会导致更大的分类损失。又因为我们设置了Feature Uncertainty Loss,模型不会优化使每个样本的方差为0,那么谁的方差会更大呢?答案是明显的:减小噪声样本的方差仍然会导致较大的分类损失,但是减小干净样本的方差给分类损失带来明显而直接的下降,因此模型肯定会讲方差值分配给噪声样本,这也就解释了第一个关键问题。

第二个问题:
因为方差大,采样得到的多个特征向量形成的损失梯度分散,互相相斥,最终无法得到一致梯度下降方向,因此对模型训练的贡献会降低。

标签优化角度:生成的标签不确定度估计

在这里插入图片描述

把标签不确定度问题建模为物体潜在正确建议框的多样性(The diversity of potentially plausible bounding boxes of objects),简单来说就是给定采集到的物体表面点云,可能会有不同正确的标注方式,不以GT给的box为唯一标准。Exlicitly model the one-to-many relationship between a typical 3D object and its potentially plausible ground-truth boxes in a learning-based framework.
在这里插入图片描述

问题描述

在这里插入图片描述

推断和训练过程

在这里插入图片描述
测试时:通过Prior Network生成合理的特征分布,通过采样并与Context Encoder输出concat一起输入Prediction Network,目的是生成3D boxes,这些boxes其实就是物体潜在正确建议框的多样性(The diversity of potentially plausible bounding boxes of objects)。

训练时:可以看出网络有3个模块需要训练,分别是Prior NetworkContext EncoderPrediction Network。作者设计了一个新的网络Recognition Network,这也是作者认为方法出自CVAE的原因,此处有一个假设(Assumption):给定点云和GT BOX的情况下,存在一个确定的后验分布 q ( z ∣ X , C ) q(z|X,C) q(zX,C) ,这是对Prior Network输出分布的监督,它能够与Context Encoder输出concat一起通过Prediction Network输出准确的GT BOX。其中Huber Loss约束了Context EncoderPrediction NetworkRecognition Network的学习,同时Recognition Network的输出约束了Prior Network的学习。

Recognition Network

在这里插入图片描述

如何应用到3D Detector上?

记住核心: GLENet的目的是将GT Box建模为Gaussian Distribution,最终这个Gaussian Distrition会用于约束3D Detector,前面的训练都是在帮助训练GLENet来生成合理的Gaussian Distribution。

让检测头的输出是不同bounding boxes的概率分布:
在这里插入图片描述
同时让GT boxes也被认为是一个Gaussian分布,因此便可以计算KL散度损失:
在这里插入图片描述
同时预测的方差帮助box的IOU预测:
在这里插入图片描述
最后,提供了一个Ensemble策略3D Var Voting: During the merging process, the neighboring boxes that are closerand have a low variance are assigned with higher weights.Note that neighboring boxes with a large angle differencefrom𝑏do not participate in the ensembling of angles.
在这里插入图片描述)

  • 1
    点赞
  • 4
    收藏
    觉得还不错? 一键收藏
  • 打赏
    打赏
  • 2
    评论

“相关推荐”对你有帮助么?

  • 非常没帮助
  • 没帮助
  • 一般
  • 有帮助
  • 非常有帮助
提交
评论 2
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包

打赏作者

SoaringPigeon

你的鼓励将是我创作的最大动力

¥1 ¥2 ¥4 ¥6 ¥10 ¥20
扫码支付:¥1
获取中
扫码支付

您的余额不足,请更换扫码支付或充值

打赏作者

实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值