CVPR世界第二!仅次于Nature!谷歌学术2024指标出炉!NeurIPS、ICLR跻身前十

点击下方卡片,关注“CVer”公众号

AI/CV重磅干货,第一时间送达

点击进入—>【Mamba/多模态/扩散】交流群

添加微信:CVer5555,小助手会拉你进群!

扫描下方二维码,加入CVer学术星球!可以获得最新顶会/顶刊上的论文idea和CV从入门到精通资料,及最前沿应用!发论文/搞科研/涨薪,强烈推荐!

5a03c1c6c91b778dac95c14f58dae0d0.jpeg

转载自:新智元  |  编辑:桃子 好困

【导读】一年一度谷歌学术指标公布了!Nature年年霸榜,而今年与以往不同的是,国际学术顶会的排名大幅提升,CVPR位居第二,超越Science仅次于Nature。另外,TOP 20中,共有五大顶会入选,被引最高论文与大模型时代下前沿技术,一脉相承。

谷歌2024学术指标,刚刚出炉了!

60b33edac350bf60f81304099b30253c.png

最新排名是针对2019-2023年之间发表的文章的统计,还包含了截至2024年7月在Google Scholar中被引的所有文章数。

今年,依据h5-index,排在前十的期刊/国际顶级学术会议中,Nature已经连续霸榜多年。

除了Nature,还有新英格兰医学杂志、Science、自然通讯、柳叶刀、Advanced Materials、细胞国际期刊进入前十。

此外,CVPR、NeurIPS、ICLR三大顶会跻身TOP 10,分别位列第二、第七和第十。

2023学术指标中,CVPR位列第四,NeurIPS位列第九。ICLR排名不变。

55a057968a019c194123701c0e219490.png

网友们纷纷惊叹道,「CVPR已经攀升至第二,仅次Nature」!

28494b0862e4f72c95eda4ca9a0fca02.png

「看到CVPR比Science有更大一个影响力,和Nature相差不远,简直太疯狂了」。

8b06ad29760b40c09906726cb09b7b0a.png

CVPR、NeurIPS顶会排名跃升如此之高,说明了什么问题?

加拿大滑铁卢大学计算机教授Gautam Kamath称,要么是很多人引用了这些顶会中的论文,要么是很多人在顶会中发表了论文。也就是说,这一现象主要反映了该研究领域的增长。

adba61be8dcfd8fb669d40143c56c8c6.png

AI五大顶会冲进TOP 20

除了开头我们提到了三个顶会位列前十,在总榜前20名中,还有ICCV、ICML两个机器学习/计算机视觉顶会入选。

其中,ICCV位列第13,ICML位列第17。

16a63d37d7af1b4fc7a5506f6d8d8438.png

接下来,一起分别看看这5大顶会,近5年来(2019-2023年)被引最高的文章。

CVPR:StyleGAN、LDM

首先来看CVPR,h5-index为440,h5-median为689。

在前20篇高被引的论文中,优秀的产出成果分别聚集在2019年、2020年、2022年中,分散在2021年、2023年的论文只有零星几篇。

392bdc3f0dd210e8d5accab70d45b51f.png

这里,有几篇极具代表性,每个人或多或少熟知的作品:

由何凯明、谢赛宁等人联手在2020年提出的动量对比(MoCo)算法被引最高,达11878次。这是一种构建大型且一致的词典的方法,用于无监督学习。

0c05118b72dd914fb3da069a3576907c.png

还有英伟达团队提出的StyleGAN算法,让AI可以生成无数个细节丰富、逼真的人脸,很难看出伪造的痕迹。

3830ab3c5659b7653655661f8938765f.png

68649519fc803c707222540c50996ca2.png

Runway的AI视频模型从Gen-1到Gen-3 Alpha完成多次进化,离不开的是「潜在扩散模型」(LDM)。

366e5ec81d97046b3e71eb0fb7d2bd9d.png

1ec984086771a9ae0a28a5a094b706b5.png

还有谢赛宁带领团队发表的A ConvNet for the 2020s,带来全新纯卷积模型ConvNeXt,性能反超Swin Transformer,直接在CV圈里掀起了模型架构之争。

fed498b80d755dd2d7041cc91d25d9cd.png

378dabbcb6eced4b147cb138be219f97.png

2023年有一篇YOLOv7的论文进入TOP 20,现在这一算法已经改进到了YOLOv10(清华团队)。

2fc7f93c8bf95789ccdfbd58e41c4587.png

NeurIPS:GPT-3、CoT、RAG

在NeurIPS中,h5-index为337,h5-median为614。

在前20篇高被引的论文中,优秀的产出成果分别聚集在2019-2022年之间。

e118aba740db85cfa9cf9dc8a154c8a0.png

被引最高的论文是PyTorch开山之作,被引数为43887,可见其影响力之深远。

853a53d05a0156c72e5549fb44aba9f4.png

其次,被引第二高的是由前OpenAI科学家Ilya Sutskever带队的研究——大名鼎鼎的GPT-3背后之作,成为业界拜读之笔。

8df11f669468a2c9b16c413048f9558b.png

其他著名的研究还包括:

谷歌大脑一作Jason Wei和团队提出「思维链」(CoT)算法,已经成为当今大模型弥补幻觉问题的一种重要的手段。

e9d3c4b3f18c4cc2f18bf9c4058039de.png

还有OpenAI团队提出的使用类别引导图像生成扩散模型,首次击败了GAN。

3ab92acf112ef5274dd9819f836b3641.png

c6620ff0848116ad2093ff12ba003d3b.png

另有Meta(Facebook)团队在2020年在如下论文中,首次提出了如今大模型用到的一项技术的概念——检索增强生成(RAG)。

feb6d1aca58ed7a069e1253febd7691c.png

ICLR:LoRA、ViT

在ICLR中,h5-index为304,h5-median为584。

在前20篇高被引的论文中,优秀的产出成果分别聚集在2019-2022年之间,2021年比例偏少一些。

e9428a2bf9ba8a09874bc956ed6799a5.png

其中的经典之作,包括微软团队提出的大模型时代爆火技术之一——LoRA。这是一种降低模型可训练参数,又尽量不损失模型表现的大模型微调方法。

60cd31b2b8158f34a13d3ee8ed6b489d.png

如下这篇论文成为Transfomer在CV领域的里程碑之作,引爆了后续的相关研究。

谷歌大脑团队提出了Vision Transformer(ViT)全新架构,不用卷积神经网络(CNN),可以直接用Transformer对图像进行分类,性能赶超CNN。

32431c4545e0fddb7940dcb9237c3378.png

be7ef41dca5be0cf6d19b029e6ae4ddc.gif

斯坦福团队提出的「去噪扩散隐式模型」(DDIM),大幅减少采样的步骤,极大的提高了图像生成的效率。

002cc71d0297ee1c51a6213b55710a94.png

ICCV:Swin Transformer、SAM

在ICLR中,h5-index为291,h5-median为484。

在前20篇高被引的论文中,优秀的产出成果主要聚集在2019年、2021年。

58d840e7227b17bc5a3975911b5db110.png

其中,有大家熟知的:

全华人团队提出的Swin Transformer,是Transformer模型在视觉领域的又一次碰撞。它在物体检测和语义分割任务中大幅刷新了此前的纪录,并被广泛应用于众多视觉任务中。

3f36722a6606d4bf353ecee726f779e5.png

Meta团队提出的「分割一切」(SAM)模型,让学术圈直呼CV不存在了。

cb72cde5e11badb43cf661166429eb02.png

ICML:DALL·E、GLIDE、BLIP

在ICML中,h5-index为268,h5-median为424。

在前20篇高被引的论文中,优秀的产出成果分散在2019-2023年之间。

79d3ddda18f37c18fec62e4770f4a319.png

在GAN之后,Ian Goodfellow团队又提出了「自注意力生成对抗网络」(SAGAN),在GAN的基础上引入了自注意力机制,改进了图像生成的质量和多样性。

4813d0aa6d38a975e67fe11ffe18a68a.png

OpenAI DALL·E背后经典之作,便是如下这篇了。

e25067f94e53eb34bd13b91ba79a6980.png

72dc110f861ea7e3c9b5d956accbbe76.png

另一篇同由OpenAI团队提出的的文本生成图像模型GLIDE,仅用35亿参数,就能媲美初代DALL·E的性能。

b630b67b94d45a34078f59e190bd2989.png

此外,还有双语视觉语言模型BLIP、BLIP-2。

31606c98026d3818426d78216d0e14b6.png

从以上五大顶会的趋势研究中,看得出当前GenAI、大模型的爆发,与近年来的研究一脉相承。

另外,对于其他领域感兴趣的读者,可以进入Google Scholar主页自行查阅。

传送门:https://scholar.google.com/citations?view_op=top_venues

最权威学术指标,也陷争议

每年,Google Scholar都会更新一次学术指标,并列出位列前100名的出版物。

「谷歌学术指标」提供了一种简便的方法,可以快速评估近期文章在学术出版物中的可见度和影响力。

d8e46a22dc1a5ca6db92fa42ff951eb4.png

它总结了许多出版物最近的引用情况,可以帮助业界研究者们参考那里发表最新的研究成果。

这些出版物按照5年h-index、h-median,这两个指标去排序。

若想具体查看,排名中某出版物中哪些文章被引数最多,以及谁引用了这些文章,直接单击h-index,便可查看。

总榜,是不分类榜单。针对不同领域,比如工程&计算机视觉、物理&数学、化学&材料科学等,都有各自榜单排名。

a42ec31e5dc9725efb0d5a8a82f1a132.png

有网友发出质疑:如果不考虑「顶会规模」这一「强相关」的因素,这怎么可能成为一个有意义的评价顶会的标准呢?

aefcded326abd04b9a7e6d6d410f13ce.png

对此,Gautam Kamath称,是的这就是谷歌正在衡量的因素。我觉得这里有一个更好的衡量「影响力」的方法——只计算来自本领域外的引用(类似于排除「自引」)。

e749d5d7e6d0d48baf9a1693712267c1.png

另有网友粗略计算了下,14个顶会中,仅有4个不收取出版费用。当然,虽然没有出版费用,但参加会议仍有其他相关费用,而且根据提交论文的数量等因素而变化。

67e24903ae9223eb46d0520f8bf0ef5f.png

参考资料:

https://scholar.googleblog.com/2024/07/2024-scholar-metrics-released.html

何恺明在MIT授课的课件PPT下载

 
 

在CVer公众号后台回复:何恺明,即可下载本课程的所有566页课件PPT!赶紧学起来!

ECCV 2024 论文和代码下载

在CVer公众号后台回复:ECCV2024,即可下载ECCV 2024论文和代码开源的论文合集

CVPR 2024 论文和代码下载

在CVer公众号后台回复:CVPR2024,即可下载CVPR 2024论文和代码开源的论文合集

Mamba、多模态和扩散模型交流群成立

 
 
扫描下方二维码,或者添加微信:CVer5555,即可添加CVer小助手微信,便可申请加入CVer-Mamba、多模态学习或者扩散模型微信交流群。另外其他垂直方向已涵盖:目标检测、图像分割、目标跟踪、人脸检测&识别、OCR、姿态估计、超分辨率、SLAM、医疗影像、Re-ID、GAN、NAS、深度估计、自动驾驶、强化学习、车道线检测、模型剪枝&压缩、去噪、去雾、去雨、风格迁移、遥感图像、行为识别、视频理解、图像融合、图像检索、论文投稿&交流、PyTorch、TensorFlow和Transformer、NeRF、3DGS、Mamba等。
一定要备注:研究方向+地点+学校/公司+昵称(如Mamba、多模态学习或者扩散模型+上海+上交+卡卡),根据格式备注,可更快被通过且邀请进群

 
 
▲扫码或加微信号: CVer5555,进交流群
CVer计算机视觉(知识星球)来了!想要了解最新最快最好的CV/DL/AI论文速递、优质实战项目、AI行业前沿、从入门到精通学习教程等资料,欢迎扫描下方二维码,加入CVer计算机视觉(知识星球),已汇集近万人!

▲扫码加入星球学习
 
 
▲点击上方卡片,关注CVer公众号
整理不易,请赞和在看
  • 0
    点赞
  • 0
    收藏
    觉得还不错? 一键收藏
  • 0
    评论
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值