阅读随记:场景理解篇


2016_3   BayesianSegNet: Model Uncertainty in Deep Convolutional Encoder-Decoder Architecturesfor Scene Understanding

目标:针对场景理解的深度卷积编解码结构的不确定性模型

文章贡献:实现了利用模型不确定性来预测像素层次的分类标签的实用系统,利用蒙特卡洛采样和dropout来生成测试阶段像素类标签的后验概率,同时还在SegNet, FCNand

DilationNetwor上面验证了模型不确定性可以提高分割表现2%-3%。验证了该方法在小样本上效果明显。

数据集:室内SUN场景理解数据集和室外CamVid驾驶场景数据集

代码:mi.eng.cam.ac.uk/projects/segnet/

2016_4   MultimodalInformation Fusion for Urban Scene Understanding

目标:用于城市场景理解的多模信息融合

解决问题:驾驶员辅助系统——场景理解。所提出的方法是基于over-segmented图像区域中所有可用信息的表示,该框架的主要新颖之处在于它具有整合新类别对象的能力,并且包含新的传感器或检测方法,同时保持对传感器故障的鲁邦性

实验结论:该框架非常的灵活,该信息整合方法是并行实现的,可以容忍传感器失效。

2016_5   TheCityscapes Dataset for Semantic Urban Scene Understanding

目标:为了解决城市场景理解数据不足的问题。用于城市场景的语义理解的数据集www.cityscapes-dataset.net

内容:数据集包含五十个城市的立体视频序列,这些图像中的5000图像个具有高质量的注释; 20 000个附加图像具有粗略的注释。随附的实证研究提供了对数据集特征的深入分析,以及基于我们基准的几种最先进方法的绩效评估。

结论:提出了一个城市场景数据集。提出了a standard and anovel metric。

 

2016_6   Multi-modalAuto-Encoders as Joint Estimators for Robotics Scene Understanding

目标:探索自动编码器对于多模特征融合的能力。为了解决缺失数据的重构问题。

数据集:户外场景KITTI dataset:RGB images; depthimages; and semantic label information.

方法:如上图(a)、(c)提出的一种新方法。

实验结果:算法具有实时性(less than 40ms per frame)、可以无缝的使用你觉得有用的数据,结构与现有最好的算法相当。

2016_7   AutomaticDescription Generation from Images: A Survey of Models, Datasets, andEvaluation Measures

目标:关于自动生成图像描述的综述:模型、数据集和评估方法

数据集:

2016_8   Data-DrivenContextual Modeling for 3D Scene Understanding

目标:数据驱动的用于3D室内场景理解的上下文模型。用来解决杂乱的子场景(subscene level)中目标分割问题。

方法:本文方法集单个目标识别和一组目标识别于一体,将上下文信息作为先验信息用于模型中。首先对输入进行超分割,将目标场景分成细小的图像块,提取支持平面,产生场景中目标轮廓,进行各目标的分割,创建代表单个目标的分割图;利用上下文信息和多核学习(MKL)训练目标分类器,并利用预训练的分类器对分割块进行组合,形成单个目标和子场景。

测试数据集:the NYU-Depth V2 dataset

实验结果:

2016_9   HarnessingObject and Scene Semantics for Large-Scale Video Understanding

目标:对大规模视频中的目标和场景语义的理解

方法:提出了一种新的用于大规模视频理解的目标-场景语义融合框架。

特征:目标数据流(VGG-19 CNN model)、场景数据流(VGG-16 CNN model)、一般特征流(VGG-19 CNN model pre-trained on all ofImageNet)。

数据集:ActivityNet 27, 801 video clips, 203 activity classes, totaling 849 hours of video.

Fudan-Columbia Video Dataset (FCVID):91,223 web videos,239 categories

实验结果:

2017_1  Joint2D-3D-Semantic Data for Indoor Scene Understanding

主要内容:提出了一个室内数据集。数据集涵盖6000多平方米,包含超过70,000个RGB图像,以及相应的深度,表面法线,语义注释,全局XYZ图像(均以常规和360°等角图像的形式)以及相机信息。对比了其他数据集。

2017_2  SUM:Sequential Scene Understanding and Manipulation

目标:杂乱场景下的连续的场景理解和抓取操作

方法:提出了一种鲁棒的连续场景估计和操纵的概率方法(SUM)。文中在强烈的遮挡和非结构化环境下实现对场景的可靠估计。利用r-cnn+Edge boxes进行建议框生成,建议框的评估采用结构化决策树进行,最后利用Softmax对建议框进行分类

特征:rgb-d

实验结果:实验证明与FPFH相比,准确率提高明显。

         The CityscapesDataset


  • 0
    点赞
  • 15
    收藏
    觉得还不错? 一键收藏
  • 打赏
    打赏
  • 0
    评论

“相关推荐”对你有帮助么?

  • 非常没帮助
  • 没帮助
  • 一般
  • 有帮助
  • 非常有帮助
提交
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包

打赏作者

GL_Rain

你的鼓励将是我创作的最大动力

¥1 ¥2 ¥4 ¥6 ¥10 ¥20
扫码支付:¥1
获取中
扫码支付

您的余额不足,请更换扫码支付或充值

打赏作者

实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值