三维视觉、SLAM方向全球顶尖实验室汇总

本文作者 任旭倩,公众号:计算机视觉life,编辑成员

欧洲

英国伦敦大学帝国理工学院 Dyson 机器人实验室

http://www.imperial.ac.uk/dyson-robotics-lab

简介:

伦敦帝国理工学院戴森机器人实验室成立于2014年,由Andrew Davison.教授领导。是戴森公司和帝国理工学院领导机器人视觉小组Andrew Davison教授的合作实验室,Andrew Davison是视觉SLAM领域的先驱,戴森提供大量的资金和支持,以建立一个机器人专家团队,他们合作产品包括Dyson 360 eye™vaccum清洁机器人。该实验室的重点是开发计算机视觉程序,使机器人能够超越受控环境,成功地导航并与现实世界互动。

实验室主要成就(http://www.imperial.ac.uk/dyson-robotics-lab/projects/):

ElasticFusion

一个实时的稠密的视觉SLAM系统,可以利用RGB-D相机来对房间进行全局一致的三维稠密重建。

代码地址:https://bitbucket.org/dysonroboticslab/elasticfusionpublic/src/master/

1560072844162.png

CodeSLAM

一种生成室内场景轨迹的大规模照片级真实渲染的系统。

1560072443727.png

SceneNet RGB-D

一种生成室内场景轨迹的大规模照片级真实渲染的系统。

代码地址:https://bitbucket.org/dysonroboticslab/scenenetrgb-d/src/master/

数据集地址:https://robotvault.bitbucket.io/scenenet-rgbd.html

1560073201935

SemanticFusion

一种实时可视SLAM系统,能够使用卷积神经网络在语义上注释密集的3D场景。

代码地址:https://bitbucket.org/dysonroboticslab/semanticfusion/src/master/

1560073424912


英国牛津大学Active Vision Laboratory

http://www.robots.ox.ac.uk/ActiveVision/index.html

简介:Active Vision实验室主攻计算视觉,特别是传统和深度图像的3D场景重建。实验室致力于定位和建图,可穿戴和辅助计算,语义视觉,增强现实,人体运动分析和导航的应用程序。

实验室主要成果(http://www.robots.ox.ac.uk/ActiveVision/Research/index.html)

使用3D物体形状Priors进行密集重建

PTAM

(并行跟踪和建图)用于增强现实的相机跟踪系统

源码地址:https://github.com/Oxford-PTAM/PTAM-GPL

1560089307113


英国牛津大学 Torr Vision Group

http://www.robots.ox.ac.uk/~tvg/

简介:牛津大学工程科学系Torr Vision Group(前身为布鲁克斯视觉集团,牛津布鲁克斯大学)成立于2005年,后来于2013年移居牛津大学,由Philip Torr教授领导。它包括大约20-25人。该小组的目的是参与最先进的计算机视觉和人工智能数学理论研究,但要保持数学研究与社会需求相关。该小组的一个特别重点是用移动相机进行实时重建环境,例如无人机,智能眼镜或其他机器人。

实验室主要成果(http://www.robots.ox.ac.uk/~tvg/projects.php)

交互式实时3D场景分割的框架

创建了一个只需使用廉价的硬件,就可以在半小时内捕获并重建整个房屋或实验室的建图系统。

源码地址:https://github.com/torrvision/spaint/tree/collaborative

1560162825641


基于立体视觉的城市三维语义建模

可以生成具有相关语义标记的高效且准确的密集三维重建地图。

1560163026017


苏黎世联邦理工学院的Autonomous System Lab

http://www.asl.ethz.ch/

简介:

由Roland Siegwart教授领导,Autonomous System Lab于1996年在洛桑联邦理工学院成立,它是机器人和智能系统研究所(IRIS)的一部分

实验室旨在创造能够在复杂多样的环境中自主运行的机器人和智能系统。设计机电和控制系统,使机器人可以自主适应不同的情况,并应对不确定和动态的日常环境。机器人可以在地面,空中和水中运动,同时具备在复杂环境下自主导航的功能,研究出了包括用于感知,抽象,建图和路径规划的方法和工具。他们还在tango项目上与谷歌合作,负责视觉惯导的里程计,基于视觉的定位和深度重建算法。

实验室主要成就:(https://asl.ethz.ch/publications-and-sources/open-source-software.html)

libpointmatcher

libpointmatcher是一个模块化库,它实现了迭代最近点(ICP)算法,用于配准点云。

代码地址:https://github.com/ethz-asl/libpointmatcher

1560074706854

libnabo

用于低维空间的快速K最近邻库

代码地址:https://github.com/ethz-asl/libnabo

ethzasl_sensor_fusion

基于EKF的时延补偿单传感器和多传感器融合框架

代码地址:https://github.com/ethz-asl/ethzasl_sensor_fusion

1560074518534

ethzasl_ptam

用于单目SLAM的框架PTAM

代码地址:https://github.com/ethz-asl/ethzasl_ptam

1560074913412


苏黎世Robotics and Perception Group

http://rpg.ifi.uzh.ch/

简介:该实验室由Davide Scaramuzza教授领导,成立于2012年2月,是苏黎世大学信息学系和神经信息学研究所的一部分,该研究所是苏黎世大学和苏黎世联邦理工学院的联合研究所。实验室开发智能机器人,只使用车载摄像头即可自行导航,而无需依赖外部基础设施,如GPS或动作捕捉系统。 研究包括地面和微型飞行机器人,以及由这两者组合而成的多机器人异构系统。

实验室主要成果(http://rpg.ifi.uzh.ch/software_datasets.html)

视觉(惯性)里程计轨迹定量评估方法

通过视觉( 惯性)里程计(VO / VIO)定量评估估计轨迹的质量

源码地址:https://github.com/uzh-rpg/rpg_trajectory_evaluation

1560157882807

基于高效数据的分布式视觉SLAM

该算法可实现使用便宜,轻便和多功能的相机进行分布式通信多机器人建图

源码地址:https://github.com/uzh-rpg/dslam_open

  • 44
    点赞
  • 259
    收藏
    觉得还不错? 一键收藏
  • 0
    评论

“相关推荐”对你有帮助么?

  • 非常没帮助
  • 没帮助
  • 一般
  • 有帮助
  • 非常有帮助
提交
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值