更新2
CNN遍地开花,传统方法很冷清
CNN RNN结合的文章越来多,但如何联合训练仍然有待进一步解决
有人在致力于挖新坑,老坑越来越难填
Face2face很酷炫
创业公司很多,到处是华人身影
拉斯维加斯很适合出来玩
伙食太差,吃不饱
在CVPR会场更新
ResNet获得了best paper.
这个题目被邀请真是受宠若惊。我关注的方向是2D图像检测和识别,其实这个方向更新比较快,很多文章在早就在Arxiv上挂出来了。说亮点的话还是等开完会吧。
说几个感觉比较好的工作(排名不分前后),随时更新。。。
1. Deep Residual Learning for Image Recognition
这是kaiming组那篇影响力很大的文章,不用说了
2. You Only Look Once: Unified, Real-Time Object Detection
YOLO用纯CNN来做检测,可以达到实时的效果,虽然今年SSD的效果做的好很多,但YOLO确实起到了先驱的作用。另,一作貌似是一个传奇人物。
3. Training Region-Based Object Detectors With Online Hard Example Mining
这个工作比较新,他提供了在F-RCNN的框架下,在训练过程中如何对样本进行选择的一种解决方案。而且确实work。
4. Accurate Image Super-Resolution Using Very Deep Convolutional Networks
这是做超分辨率重建的一篇文章,主要的创新点在于在网络的最后用原图来辅助重建,有点残差网的意思,当然效果也很好。
5. Inside-Outside Net: Detecting Objects in Context With Skip Pooling and Recurrent Neural Networks
在F-RCNN的框架下如何对特征进行增强,文章主要考虑了multi-layer fusion和context信息。
6. HyperNet: Towards Accurate Region Proposal Generation and Joint Object Detection
通过对CNN的多层特征进行融合提高定位准确性,利用类似于Faster-RCNN的方式进行目标检测
7. Exploit All the Layers: Fast and Accurate CNN Object Detector With Scale Dependent Pooling and Cascaded Rejection Classifiers.
通过在CNN的多层建立级联分类器来抑制负样本(在目标检测中对负样本进行合理抑制起到了关键作用)
CNN遍地开花,传统方法很冷清
CNN RNN结合的文章越来多,但如何联合训练仍然有待进一步解决
有人在致力于挖新坑,老坑越来越难填
Face2face很酷炫
创业公司很多,到处是华人身影
拉斯维加斯很适合出来玩
伙食太差,吃不饱
在CVPR会场更新
ResNet获得了best paper.
这个题目被邀请真是受宠若惊。我关注的方向是2D图像检测和识别,其实这个方向更新比较快,很多文章在早就在Arxiv上挂出来了。说亮点的话还是等开完会吧。
说几个感觉比较好的工作(排名不分前后),随时更新。。。
1. Deep Residual Learning for Image Recognition
这是kaiming组那篇影响力很大的文章,不用说了
2. You Only Look Once: Unified, Real-Time Object Detection
YOLO用纯CNN来做检测,可以达到实时的效果,虽然今年SSD的效果做的好很多,但YOLO确实起到了先驱的作用。另,一作貌似是一个传奇人物。
3. Training Region-Based Object Detectors With Online Hard Example Mining
这个工作比较新,他提供了在F-RCNN的框架下,在训练过程中如何对样本进行选择的一种解决方案。而且确实work。
4. Accurate Image Super-Resolution Using Very Deep Convolutional Networks
这是做超分辨率重建的一篇文章,主要的创新点在于在网络的最后用原图来辅助重建,有点残差网的意思,当然效果也很好。
5. Inside-Outside Net: Detecting Objects in Context With Skip Pooling and Recurrent Neural Networks
在F-RCNN的框架下如何对特征进行增强,文章主要考虑了multi-layer fusion和context信息。
6. HyperNet: Towards Accurate Region Proposal Generation and Joint Object Detection
通过对CNN的多层特征进行融合提高定位准确性,利用类似于Faster-RCNN的方式进行目标检测
7. Exploit All the Layers: Fast and Accurate CNN Object Detector With Scale Dependent Pooling and Cascaded Rejection Classifiers.
通过在CNN的多层建立级联分类器来抑制负样本(在目标检测中对负样本进行合理抑制起到了关键作用)
写了个爬虫,爬了所有论文,并且按照网站下面的分了类别……
cvpr2016_已分类.zip_免费高速下载
-----------------我是分割线
有人要了爬取的代码一并给了....
GitHub - zhengxiawu/scrap-cvpr2016
cvpr2016_已分类.zip_免费高速下载
-----------------我是分割线
有人要了爬取的代码一并给了....
GitHub - zhengxiawu/scrap-cvpr2016
CVPR悲剧了...sad...关注了一下同方向的论文,说几篇比较感兴趣的。
Sparseness Meets Deepness: 3D Human Pose Estimation from Monocular Video
对于二维关节点未知的情况,输入图像序列,基于CNN的heat map检测出二维关节点的位置范围,结合三维姿态字典,通过EM algorithm恢复出三维姿态序列。
A Dual-Source Approach for 3D Pose Estimation from a Single Image
一个dual-stream的三维姿态估计方法,训练数据分别是带标记点的二维图像和三维动作捕捉数据。
Direct Prediction of 3D Body Poses from Motion Compensated Sequences
3D pose recovery通常会先逐帧计算出可能的pose,然后在后续过程中消除歧义。这篇论文中的工作则是直接从spatio-temporal volume中得到三维姿态。
Personalizing Human Video Pose Estimation
亮点在于Personalization,其实就是提出了一个遮挡感知自评价模型。在已有的一般方法得到的姿态估计结果基础上,初始化annotation,再做空间匹配,时间传播,然后进行自我评估,剔除误差大的结果,迭代得到annotations,拿去训练personalized pose estimator。
求个签,坐等ECCV结果announce。。。
大家好,来安利下我的paper:
Fast Zero-Shot Image Tagging
这篇paper提出了zero-shot tagging,也就是如何向query image标注训练集里面没有出现过的image tag的问题。和之前的zero-shot classification不一样的是,我们的方法可以向一张图片标注多个unseen的标签。
比如这张图片,
我们的模型对其的tag prediction是
注意这五个词是我们的模型从四千个没有在训练集里面出现的词里面选出来的哦!
而且模型不仅在zero-shot tagging上表现很好,在传统tagging问题上也表现非常好。模型也可以推广到任何的ranking problem上面:)code会在今年9月之前release(想要提前使用code的可以来信哦)。
Fast Zero-Shot Image Tagging
这篇paper提出了zero-shot tagging,也就是如何向query image标注训练集里面没有出现过的image tag的问题。和之前的zero-shot classification不一样的是,我们的方法可以向一张图片标注多个unseen的标签。
比如这张图片,
我们的模型对其的tag prediction是
注意这五个词是我们的模型从四千个没有在训练集里面出现的词里面选出来的哦!
而且模型不仅在zero-shot tagging上表现很好,在传统tagging问题上也表现非常好。模型也可以推广到任何的ranking problem上面:)code会在今年9月之前release(想要提前使用code的可以来信哦)。
匿名用户
想一次下载所有paper的话,一条命令就够了
wget --no-clobber --convert-links --random-wait -r -p -E -e robots=off -U mozilla http://www.cv-foundation.org/openaccess/CVPR2016.py
wget --no-clobber --convert-links --random-wait -r -p -E -e robots=off -U mozilla http://www.cv-foundation.org/openaccess/CVPR2016.py
Deep Hand: How to Train a CNN on 1 Million Hand Images When Your Data Is Continuous and Weakly Labelled
说句题外话。
最近几天在帮导师整理CVPR 2016、2015两年的文章,发现视觉领域真的被华人给玩坏了~
这两年CVPR的文章里有一半左右第一作者是华人(根据姓名判断)。15年第一作者单位是陆港澳台科研机构的文章有121篇,16年有124篇,果真是人多力量大 啊^_^
如果有视觉领域的资深人士梳理一下为啥在华人这个领域进步这么大,相信对其他领域的追赶会有很好的借鉴意义。
最近几天在帮导师整理CVPR 2016、2015两年的文章,发现视觉领域真的被华人给玩坏了~
这两年CVPR的文章里有一半左右第一作者是华人(根据姓名判断)。15年第一作者单位是陆港澳台科研机构的文章有121篇,16年有124篇,果真是人多力量大 啊^_^
如果有视觉领域的资深人士梳理一下为啥在华人这个领域进步这么大,相信对其他领域的追赶会有很好的借鉴意义。
所有的论文都在这里:
CVPR 2016 Open Access Repository
大部分内容看不懂,大致略看了下题目,learning和3D相关的占了大多,learning的最多,还有一些少数的segmentation,pose estimation,calibration等
大部分内容看不懂,大致略看了下题目,learning和3D相关的占了大多,learning的最多,还有一些少数的segmentation,pose estimation,calibration等
干货答案留给学霸们来答,学渣说个不那么有用的点: 女性在CV界的春天到了!
––––––––––––
具体情况是今天参加欢迎仪式,第一个讲话的来自UCB的老奶奶上来就说以前女性怎么被歧视,很少有杰出的女性计算机科学家,然后看了眼今年chair的列表,发现general chair 3个人都是女性,program chair 4个人还全是女性,整个 http://cvpr2016.thecvf.com/organizers这一页的各种chair就没几个男的,然后早上还有个workshop的题目与视觉基本没太大关系叫做Women in Computer Vision!
嗯,所以我的结论也不是什么男女不平等神马的,而是。。。。。。美女们赶紧来做CV吧哈哈哈!!!
––––––––––––
具体情况是今天参加欢迎仪式,第一个讲话的来自UCB的老奶奶上来就说以前女性怎么被歧视,很少有杰出的女性计算机科学家,然后看了眼今年chair的列表,发现general chair 3个人都是女性,program chair 4个人还全是女性,整个 http://cvpr2016.thecvf.com/organizers这一页的各种chair就没几个男的,然后早上还有个workshop的题目与视觉基本没太大关系叫做Women in Computer Vision!
嗯,所以我的结论也不是什么男女不平等神马的,而是。。。。。。美女们赶紧来做CV吧哈哈哈!!!