何恺明MIT开门弟子名单公开:奥赛双料金牌得主、清华姚班学霸在列

奇月 发自 凹非寺
量子位 | 公众号 QbitAI

入职MIT电气工程和计算机科学系的何恺明,第一波门下弟子现在曝光——

1baaeb024bbb32c90216af173448ee39.png

可以看到,四位研究者中其中有三位都是3位是华人:白行建邓明扬黎天鸿

我们熟悉的IMO、IOI双料奥赛金牌得主邓明扬也在列。

事实上,在不久之前,他们就已经合作了一篇文章:无需矢量量化的自回归图像生成 何恺明新作再战AI生成:入职MIT后首次带队,奥赛双料金牌得主邓明扬参与

这篇文章提出了一种新的图像生成方法,通过扩散过程来建模每个标记的概率分布,从而避免了使用离散值的tokenizer,并在连续值空间中实现了自回归模型的应用。

18ce8e332301de0c3e3fbda7280844d4.png

这篇文章黎天鸿博士后是论文的一作,此外他还参与了何恺明团队的其他多项学术研究:

18764c682f5d33b70cc9fb20c93b4073.png

76a44585594e62c86c9b88fa0d5fbed3.png

何恺明副教授的主页也更新了头像、联系方式和履历,还有一些最新的MIT课程和演讲等:

076c9750b25a3a9946a98969f4b2f736.png
6b8679ffbf8479ab2c9ec97682291121.png

何恺明MIT实验室成员首次公开

博士一年级生邓明扬

邓明扬,MIT数学和计算机科学本科。

他从小学三年级就开始竞赛,在高一获得IMO(国际数学奥林匹克竞赛)金牌,高三获得IOI(国际信息学奥林匹克竞赛)金牌,国内首位在不同学科获得国际金牌的选手,也是IOI历史上第三位满分选手,人称“乖神”。

此外他还曾获得ICPC国际大学生程序设计竞赛世界总决赛的第1名。

目前邓明扬的研究重点是机器学习,特别是理解和推进生成式基础模型,包括扩散模型和大型语言模型。

606a7898d105b4009409d7a47abec4e1.png
ab752c88213ee48cc2afb9ed5216d3ae.png

博士一年级生白行健

白行健高中毕业于北师大实验中学,在牛津大学获得了数学和计算机科学的硕士和学士学位。

他的研究重点目前是是经典算法和深度学习的交叉领域。

他也参与了多项竞赛,曾获得2018年CCO(加拿大信息学奥林匹克竞赛)第一名,NOI(中国信息学奥林匹克竞赛)银牌,NOIP(中国信息学联赛)北京市提高组一等奖第3名等。

高三时,他就凭借自适应图卷积神经网络检测网络暴力的论文入围了丘成桐中学科学奖决赛。

0466d83eb9b313a5a534ac596322ae78.png

b307a843a87bace623eeb5976037fa9f.png

博士后黎天鸿

黎天鸿本科毕业于清华叉院姚班,在MIT获得了硕博学位之后,目前在何恺明组内从事博士后研究。

根据他的主页最新消息显示,他将担任ICLR 2025的区域主席

他的主要研究方向是表示学习和生成模型,目标是构建能够理解人类感知之外的世界的智能视觉系统。

此前曾作为一作和何恺明开发了自条件图像生成框架RCG,团队最新的多项研究中他也都有参与。

07094714ee29929089329e39e918e989.png
39ab814b5ff32a8af2dc2e9f18aff18a.png

有趣的是,他还非常喜欢做饭,主页上放了很多自己总结的食谱。

f7604e15bcd1e342ce23fd14ad435dfb.png

博士生Jake Austin

还有一位博士生Jake Austin,之前在加州伯克利大学人工智能研究所任职。

她的谷歌学术主页被引数超过了500,主要成果也是集中在计算机视觉领域。

34af501e4ec4ffe277dd60382dff53b7.png
761307abbd273e6d40eb5a49f60b64ed.png

何恺明团队的最新动态

CV相关

何恺明团队最新的学术研究成果还是主要集中在他擅长的CV领域

最新一篇是发表于10月17日的一篇论文:Fluid: Scaling Autoregressive Text-to-image Generative Models with Continuous Tokens。

这篇论文通过实证研究表明,使用连续标记和随机顺序生成的自回归模型在文本到图像生成任务中表现出最佳的扩展性和生成质量,团队提出的Fluid模型刷新了新的零样本FID和GenEval分数。

b29b3642918c6bbf3151dac0a6615f58.png

另一篇Scaling Proprioceptive-Visual Learning with Heterogeneous Pre-trained Transformers发表于9月30日。

这篇文章提出了一种名为Heterogeneous Pre-trained Transformers (HPT) 的架构,通过跨不同机器人本体和任务的异构预训练来学习通用的策略表示,并在大规模机器人仿真和真实世界环境中验证了其有效性。

1d47899c00d1ae7105074d7e7c642671.png

主页还列出了更多研究内容,包括自回归图像生成、单张图像3D物理建模、使用拉格朗日体积网格表示高质量几何形状等等,多篇文章都已被NeurlPS 2024接收。

773111b9ace238742e37218537221c01.png

AI for Science相关

之前,何恺明副教授在MIT的求职演讲上特意提到,AI for Science也将是他未来的工作方向。

5月他曾发表了这个方向的首个工作:使用强化学习的动态异构量子资源调度。文章使用自注意力机制处理量子比特对的序列信息,在概率性环境中训练强化学习模型,提供动态实时调度指导,最终将量子系统性能提升了3倍以上。

52c25c7316d7a7303be6a775648ccce9.png

多位大神云集,让我们一起期待何恺明团队未来的更多成果吧!

参考链接:
[1]https://people.csail.mit.edu/kaiming/

评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值