来自微软亚洲研究院推荐的计算机视觉项目清单

来看看微软亚洲研究院的一些牛人推荐的计算机视觉项目,希望对我们的同学们在图像算法方向选择有所帮助。

主要分为目标检测,语义和实例分割,人体姿态估计,人脸对齐,高效轻量卷积神经网络结构设计,行人重新识别,视频目标检测,目标跟踪,最近邻搜索等领域。

目标检测

1. HRNet-对象检测

微软亚洲研究院视觉计算小组提出的一种新的骨干网络结构可以学习高分辨率表示并提高目标的空间精度,尤其是小目标。支持多规模同步训练。

论文:

https://arxiv.org/pdf/1904.04514.pdf

源码:

https://github.com/HRNet/HRNet-Object-Detection

https://github.com/HRNet/HRNet-MaskRCNN-Benchmark

https://github.com/HRNet/HRNet-FCOS

2.可变形卷积网络

微软亚洲研究院视觉计算组提出的具有几何变形建模的卷积神经网络

论文:

https://arxiv.org/abs/1703.06211

https://arxiv.org/abs/1811.11168

源码:

https://github.com/msracver/Deformable-ConvNets

3.关系网络

Microsoft计算研究小组的Visual Computing Group建议使用对象之间的相关性来提高对象检测器的性能。

论文:

https://arxiv.org/pdf/1711.11575.pdf

源码:

https://github.com/msracver/Relation-Networks-for-Object-Detection

语义和实例分割

1. HRNet-语义分割

微软亚洲研究院视觉计算组提出的一种新的骨干网络结构可以学习高分辨率表示,有效地提高语义分割的性能。

论文:

Https://arxiv.org/pdf/1904.04514.pdf

源码:

https://github.com/HRNet/HRNet-Semantic-Segmentation

https://github.com/HRNet/HRNet-MaskRCNN-Benchmark

2.完全卷积的实例感知语义分割

由微软亚洲研究院的Visual Computing Group提出的基于完整卷积网络的端到端实例分割系统在COCO2016竞赛中赢得了冠军。

论文:

Https://arxiv.org/pdf/1611.07709.pdf

源码:

https://github.com/msracver/FCIS

人体姿势估计

1. HRNet-人体姿态估计

微软亚洲研究院视觉计算组提出的一种新的骨干网络结构可以学习高分辨率表示,有效提高人体关键点热图空间的准确性。

论文:

Https://arxiv.org/pdf/1902.09212.pdf

源码:

Https://github.com/leoxiaobin/deep-high-resolution-net.pytorch

2. SimplePose

微软亚洲研究院视觉计算组提出的网络结构用于检测人体的关键任务,简单有效。

论文:

Https://arxiv.org/abs/1804.06208

源码:

https://github.com/Microsoft/human-pose-estimation.pytorch

3.整体人体花瓶

微软亚洲研究院的Visual Computing Group提出了一种集成操作,以处理3D人体姿势估计任务中的后处理/量化不可导出问题。

论文:

Https://arxiv.org/abs/1711.08229

源码:

https://github.com/JimmySuen/integral-human-pose

面部对齐

1. HRNet-面部 - 地标 - 检测

微软亚洲研究院视觉计算组提出的一种新的骨干网络结构可以学习高分辨率表示,有效地提高人脸检测的性能。

论文:

Https://arxiv.org/pdf/1904.04514.pdf

源码:

https://github.com/HRNet/HRNet-Facial-Landmark-Detection

高效轻量级卷积神经网络结构设计

1.人力资源网络分类

由Microsoft Research Asia的Visual Computing Group提出的新的骨干网络结构可以学习多分辨率表征,然后结合多分辨率表征来进行图像识别。

论文:

Https://arxiv.org/pdf/1904.04514.pdf

源码:

https://github.com/HRNet/HRNet-Image-Classification

2.交织群体卷积

微软亚洲研究院的Visual Computing Group提出的轻量级网络结构在分类和检测等任务中取得了比谷歌MobileNetv2更好的结果。

论文:

Https://arxiv.org/pdf/1707.02725.pdf

Https://arxiv.org/pdf/1804.06202.pdf

Https://arxiv.org/pdf/1806.00178.pdf

源码:

https://github.com/homles11/IGCV3

3.行人重新识别

深入学习的部分对齐表示

微软计算研究小组的视觉计算小组建议使用身体部位信息来提取行人代表。

论文:

http://openaccess.thecvf.com/content_ICCV_2017/papers/Zhao_Deeply-Learned_Part-Aligned_Representations_ICCV_2017_paper.pdf

源码:

Https://github.com/zlmzju/part_reid

2.部分对齐的双线性表示

微软亚洲研究院的视觉计算小组提出了一种双线性池化方法,将人类手势结合起来以提取行人代表性。

论文:

http://openaccess.thecvf.com/content_ECCV_2018/papers/Yumin_Suh_Part-Aligned_Bilinear_Representations_ECCV_2018_paper.pdf

源码:Https://github.com/yuminsuh/part_bilinear_reid

视频目标检测

1.深度特征低

由Microsoft Research Asia的Visual Computing Group提出的视频理解组的视频结构使用视频之间的光流信息来传达相邻帧之间的预测。

论文:

Https://arxiv.org/abs/1611.07715

源码:

https://github.com/msracver/Deep-Feature-Flow

2.流引导特征聚合

由Microsoft Research Asia的Visual Computing Group提出的视频中的对象检测问题的框架使用光流来帮助组合相邻帧的表征。

论文:

Https://arxiv.org/pdf/1703.10025.pdf

源码:

https://github.com/msracver/Flow-Guided-Feature-Aggregation

目标跟踪

1.更深入,更广泛的暹罗网络

微软研究院多媒体搜索和挖掘小组提出的更深入和更广泛的双网络解决了目标跟踪问题。

论文:

Https://arxiv.org/abs/1901.01660

源码:

https://github.com/researchmm/SiamDW

最近邻搜索

1. SPTAG

微软Bing产品中使用了由Microsoft Systems Research Group和Microsoft Bing Group联合推出的能够处理数亿个数据的索引和搜索系统。

论文:

http://citeseerx.ist.psu.edu/viewdoc/download?doi=10.1.1.862.7975&rep=rep1&type=pdf

http://pages.ucsd.edu/~ztu/publication/cvpr12_knnG.pdf,

https://ieeexplore.ieee.org/iel7/34/4359286/06549106.pdf

源码:

https://github.com/Microsoft/SPTAG

2.复合量化

由Microsoft Research Asia的Visual Computing Group提出的一种有效的紧凑编码(哈希)算法。

论文:

http://proceedings.mlr.press/v32/zhangd14.pdf

源码:

https://github.com/hellozting/CompositeQuantization

更多论文源码关注微信公众号:“图像算法”或者微信搜索账号imalg_cn关注公众号

  • 1
    点赞
  • 4
    收藏
    觉得还不错? 一键收藏
  • 0
    评论

“相关推荐”对你有帮助么?

  • 非常没帮助
  • 没帮助
  • 一般
  • 有帮助
  • 非常有帮助
提交
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值