Meta 推出Ego-Exo4D:一个研究视频学习和多模态感知的基础数据集

科技圈发布了Ego-Exo4D数据集V2,包含1286.30小时视频,用于身体和手部基准测试。新增内容丰富,如眼动追踪和3D点云,将激发计算机视觉领域的创新。
摘要由CSDN通过智能技术生成

  每周跟踪AI热点新闻动向和震撼发展 想要探索生成式人工智能的前沿进展吗?订阅我们的简报,深入解析最新的技术突破、实际应用案例和未来的趋势。与全球数同行一同,从行业内部的深度分析和实用指南中受益。不要错过这个机会,成为AI领域的领跑者。点击订阅,与未来同行! 订阅:https://rengongzhineng.io/

最近,科技圈迎来了一则令人兴奋的消息——Ego-Exo4D数据集终于全面发布啦!去年12月份,这个项目的团队就向我们透露了一些初步的信息,从那时起,他们一直在加班加点,努力完善这个数据集。如今,他们终于把这份宝贵的资源全面呈现在了我们面前。

而且,为了让大家对Ego-Exo4D的潜力有更直观的理解,项目组还推出了两项新的挑战,将在CVPR 23的EgoVis工作坊上揭晓结果。这两项挑战分别聚焦于推进EgoPose(身体)和EgoPose(手部)的基准测试,无疑将激发该领域的新进展。

对于那些已经签署了许可协议的用户,现在就可以在visualizer 16中开始探索V2版本了,真是太酷了!

关于这次全面发布,重点来了:

  • Ego-Exo4D数据集目前包含了1286.30小时的视频内容,跨越5035个片段,其中221.26小时采用了第一人称视角。
  • 相较于V1版本,新增了1341个视频片段,总时长增加了254.8小时,其中包括44.4小时的第一人称视角内容。
  • 几乎所有的视频片段(99%)都包含了眼动追踪(2D和3D)、移动轨迹数据和3D点云,为研究提供了丰富的信息。
  • 为了确保数据集的高质量,每个视频片段都经过了严格的审核,确保任务ID标签的准确无误。
  • 新增加的内容还包括对90%视频片段的最佳第三人称视角标签,以及精确的视频时间范围标注,帮助研究人员更准确地定位和分析数据。

显然,Ego-Exo4D的全面发布,不仅为研究人员提供了一份宝贵的资源,也为整个计算机视觉领域带来了新的激情和活力。期待看到更多基于这一数据集的突破性研究成果!

  • 4
    点赞
  • 2
    收藏
    觉得还不错? 一键收藏
  • 0
    评论
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值