“CSIG 计算机视觉前沿 · 研讨会”于6月28日在百度举行

点击左上方蓝字关注我们

会议简介

CSIG企业行 · 走进百度暨计算机视觉前沿研讨会将于2021年6月28日在北京举办,旨在针对计算机视觉产业应用的前沿研究领域为广大学者们、从业者们提供交流与研讨的机会,促进产学研交流与合作。

本次会议邀请到在动态神经网络设计、文字识别前沿、视觉Transformer表征、检测迁移学习、轻量人体动态捕捉等方面的优秀学者前来分享交流,会议全程在线直播,欢迎届时免费参与。

    主办单位:中国图象图形学学会(CSIG)

    承办单位:BAIDU百度、CSIG青年工作委员会

    会议时间:2021年6月28日 13:00-17:00

    B 站直播:https://live.bilibili.com/21689802

执行主席

丁二锐


博士,百度视觉技术部总监,领导部门先后获得30余项国际比赛冠军,开放150余项能力,支撑的计算机视觉公有云近两年先后被Forrester/IDC评为市场第一。

个人已发表论文30余篇,获得专利50余项,曾获ICDAR最佳论文第二名奖,百度“最佳经理人”奖,中国电子学会科技进步一等奖,先后担任ICDAR2019/2021,CVPR2020/2021等多个学术研讨会和竞赛的组织者。

特邀嘉宾与演讲内容

排序不分先后

黄高

清华大学自动化系助理教授,博士生导师。2015年获清华大学博士学位,2015年至2018年在美国康奈尔大学计算机系从事博士后科研工作。主要研究领域为深度学习和计算机视觉,提出了主流卷积网络模型DenseNet。

目前在NeurIPS,ICML,CVPR等国际顶级会议及IEEE多个汇刊共计发表学术论文50余篇,被引20000余次。获CVPR最佳论文奖、达摩院青橙奖、世界人工智能大会SAIL先锋奖、中国自动化学会优秀博士学位论文、全国百篇最具影响国际学术论文、中国人工智能学会自然科学一等奖和吴文俊优秀青年奖和国家优秀青年基金资助等。

动态深度神经网络

深度神经网络在诸多领域得到了成功应用,但深度模型所需的巨大计算开销仍制了其可用性。本报告将介绍一类在推理过程中能够根据输入的变化改变自身结构的自适应神经网络模型。

相较于当前主流的静态深度模型,动态网络能够针对输入的变化相应地调整自身的深度、宽度或者参数值等,实现计算量的“按需分配”,进而提升网络的效率,降低系统功耗。报告将介绍几类典型的样本自适应动态网络和时空自适应动态网络,并讨论现有方法的局限以及未来发展前景。

白翔

华中科技大学人工智能与自动化学院教授,国家防伪工程技术研究中心副主任。主要研究方向计算机视觉与模式识别、文档分析等。已在计算机视觉与模式识别领域一流国际期刊和会议如PAMI、CVPR等发表论文60余篇。

由于在场景文字检测与识别取得的突出成就,2019年获IAPR/ICDAR Young Investigator Award (青年学者奖)。现任期刊IEEE Trans. PAMI,Int. Journal of Document Analysis and Recognition, Pattern Recognition, Frontier of Computer Science, 中国科学-信息科学、自动化学报编委。曾担任CVPR、AAAI、IJCAI、ICPR等人工智能主流国际会议的领域主席/资深技术程序委员或竞赛主席10余次。2020年入选国际模式识别协会会士。

场景文字理解的新思考

场景文字检测与识别技术已经取得了广泛的应用落地,是计算机视觉领域的重要研究课题。在这次报告中,将介绍团队最近在场景文字检测与识别领域取得的新进展,并对该领域的仍面临的挑战进行分析,最后对该领域的研究趋势做出预测。

胡瀚

微软亚洲研究院视觉计算组研究员,西安交大兼职博导。于2014年和2008年在清华大学自动化系分别获得博士和本科学位,博士论文获得中国人工智能学会优博奖,博士期间曾在宾夕法尼亚大学访学,毕业后曾在百度研究院深度学习实验室工作。

担任CVPR 2021/2022领域主席。目前主要研究兴趣是基本视觉建模,视觉自监督学习,以及视觉-语言联合表征学习。

一种新的视觉骨干网络

Swin Transformer

将介绍一种新的视觉骨干网络Swin Transformer,相比于谷歌主要为图像分类问题设计的ViT网络,Swin Transformer对于各种视觉任务都广泛有效,包括图像分类、检测和分割等等,它也是目前COCO物体检测和ADE20K评测集上表现最好的骨干网络。

本次报告还将展开讲述四年来Transformer从自然语言处理领域逐渐迁移到计算机视觉领域的脉络,希望通过这个报告让大家对此有一个整体的了解。

张兆翔

博士,中国科学院自动化研究所研究员、博士生导师,中国科学院大学岗位教授,中国科学院脑科学与智能技术卓越创新中心骨干,研究方向包括:物体检测与分割,视觉认知计算,类脑智能等,担任或曾担任 IEEE T-CSVT、Patten Recognition、NeuroComputing 编委(Associate Editor),是CVPR、ICCV、AAAI、IJCAI、ACM MM、ICPR、ACCV 等国际会议的领域主席(Area Chair)。

GAIA:A Transfer Learning System

of Object Detection 

that Fits Your Needs

伴随着深度学习的兴起,计算机视觉领域的诸多任务如物体检测、物体分割等取得长足进展,但是单一模型应用到特定领域和任务时还是存在迁移困难、数据少、定制性差等问题。      

  

本报告介绍课题组最新的进展GAIA模型。该模型能够针对不同任务和边缘计算,自动提供定制化模型,具有较好的理论价值和应用前景。

周晓巍

浙江大学博士生导师。2008年本科毕业于浙江大学,2013年博士毕业于香港科技大学,2014至2017年在宾夕法尼亚大学 GRASP 机器人实验室从事博士后研究。2017年入选国家级青年项目并加入浙江大学。研究方向主要为计算机视觉及其在混合现实、机器人等领域的应用。

相关工作十余次获得计算机视觉三大顶级会议口头报告(<5%)。担任计算机视觉顶级期刊International Journal of Computer Vision编委、顶级会议CVPR21/ICCV21领域主席。现负责运营图形学与混合现实研讨会(GAMES)。

Democratizing Human

Motion Capture

Human motion capture (MoCap) is the basis of many human-centered applications such as human-computer interaction, AR/VR, sports analysis, healthcare, etc. Existing commercial MoCap systems are often expensive and only usable in well-controlled environments. How to make MoCap systems more lightweight and widely applicable is a long-standing problem in computer vision and graphics communities. In this talk, I will introduce our recent efforts towards this goal, which aim to reconstruct 3D human motion with only RGB videos as input. Specifically, I will introduce the MoCap algorithms and systems based on multi-view or monocular videos, the ways to leverage additional data and scene structures to resolve ambiguities, and the recent progresses on volumetric reconstruction of human bodies from very sparse multi-view videos.

会议流程

参与方式

B站直播:https://live.bilibili.com/21689802

2021年6月28日 13:00-17:00

扫描二维码观看直播

飞桨(PaddlePaddle)以百度多年的深度学习技术研究和业务应用为基础,集深度学习核心训练和推理框架、基础模型库、端到端开发套件和丰富的工具组件于一体,是中国首个自主研发、功能完备、开源开放的产业级深度学习平台。飞桨企业版针对企业级需求增强了相应特性,包含零门槛AI开发平台EasyDL和全功能AI开发平台BML。EasyDL主要面向中小企业,提供零门槛、预置丰富网络和模型、便捷高效的开发平台;BML是为大型企业提供的功能全面、可灵活定制和被深度集成的开发平台。

END

  • 0
    点赞
  • 0
    收藏
    觉得还不错? 一键收藏
  • 0
    评论

“相关推荐”对你有帮助么?

  • 非常没帮助
  • 没帮助
  • 一般
  • 有帮助
  • 非常有帮助
提交
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值