最近,第三届字节跳动奖学金正式公布了获奖者名单。
经过字节跳动技术专家团队层层评审,本届字节跳动奖学金共有来自北京大学、复旦大学、清华大学、上海交通大学、香港科技大学、浙江大学、中国科学技术大学(按拼音首字母排序)的 13 位优秀博士生/硕士生获奖,每人荣获 10 万元奖学金。
他们的研究方向分布于深度学习、高性能网络、数据库系统、分子生成、视频编码等多个计算机技术相关领域,完成了许多高质量科研项目。
有人拿下了顶会最佳论文、杰出论文;
有人主导了业界普遍应用的开源项目,GitHub 标星拿到手软;
有人完成了丰富的产研结合实践,让科技在工业界得到落地;
……
他们是:
常建慧 (北京大学)
董天 (上海交通大学)
国孟昊 (清华大学)
黄融杰 (浙江大学)
孔祥哲 (清华大学)
李云飞 (清华大学)
路橙 (清华大学)
孙天祥 (复旦大学)
汪子龙 (香港科技大学)
袁牧 (中国科学技术大学)
张博航(北京大学)
张心怡(北京大学)
朱琪豪(北京大学)
(按姓名首字母排序,不分先后)
接下来,一起看看他们杰出的科研成果吧。
常建慧
北京大学
视频与视觉技术国家工程研究中心
研究领域:智能媒体数据生成与编码
导师:高文、马思伟
常建慧,北京大学计算机学院在读博士,在图像视频编码领域的权威会议及期刊发表学术论文 10 余篇,一作 5 篇,包括 T-IP、IJCV、ACM MM 等 CCF-A 类期刊会议,申请三项专利并全部授权,并担任期刊 IEEE T-C、T-IP、T-CSVT、ACL 等多个国际期刊与会议的审稿人,曾获北京大学优秀科研奖、三好学生、计算机学院斯伦贝谢奖学金等荣誉。
针对主流的混合编码框架与全神经网络编码在极低码率遭遇编码瓶颈,主观重构质量差的问题,常建慧首次提出了一种结构-纹理分层的新型概念压缩框架,将视觉数据编码为紧凑的空间相关稀疏结构表示和空间无关纹理特征表示,并以深度合成方式解码。目前已经能够实现了超过千倍的极限压缩比,在相同主观质量下相比最新编码标准 VVC 能够实现 30%至 59% 的码率节省。
她提出的编码方案已扩展至人脸及人体视频编码、三维数字人生成式压缩相关研究中,研究成果在 IJCV、TIP等国际期刊会议上发表,并有三项专利获得授权。
董天
上海交通大学
网络安全与隐私保护实验室
研究领域:计算机安全、人工智能安全
导师:朱浩瑾
董天主要围绕人工智能的安全、隐私与可信治理三方面开展研究,已取得一系列成果。
安全方面,他参与研究并提出了语言模型的隐匿后门攻击,为进一步构建安全语言模型服务打下基础,发表于安全四大顶会之一 CCS 2021 上,获得最佳论文提名奖(Best Paper Award Runner-up)。另外,他首次揭示了一种针对边缘计算中动态深度神经网络的隐蔽后门威胁,为边缘计算中人工智能安全防护提供了新的视角,发表于网络顶会 INFOCOM 2023。
隐私方面,基于模型落地实际需求,他发现数据集浓缩技术可以带来额外的隐私保障,为隐私边缘智能计算提供了新型解决方案,相关成果发表于机器学习顶会 ICML 2022 上,获得了杰出论文奖(Outstanding Paper Award)。
治理方面,他针对云端模型确权过程中身份难确定的问题,提出了一种基于参数碰撞概率分析的数据集与模型身份注册与审计框架,同时允许可信第三方对问题模型进行确权,可用于模型与数据集版权保护等场景,助力了负责任的人工智能生态发展,相关成果发表于四大安全顶会 NDSS 2023。
国孟昊
清华大学
计算机系可视媒体研究中心
研究领域:
计算机视觉、计算机图形学、基础模型
导师:胡事民
国孟昊主要研究方向为计算机视觉、计算机图形学和基础模型。
他在 IEEE TPAMI、ACM TOG、CVPR、NeurIPS、CVMJ 等多个国际期刊和会议上发表多篇论文,主要成果包括大核注意力机制(Large kernel attention),外部注意力机制(External attention)以及点云注意力机制(PCT)等,并获得 CVMJ 2022 最佳论文奖,3 篇论文入选 ESI 高被引论文,2 篇论文入选热点论文,谷歌学术引用超过 2400 次。
此外,国孟昊还担任了 IEEE TPAMI、IJCV、IEEE TIP、CVPR、ICCV、NeurIPS、ICLR 等多个国际期刊和会议的审稿人。
国孟昊还以核心成员的身份参与了中国高校第一个开源深度学习框架计图(Jittor)的研发工作。目前,他参与的所有开源项目累积已超 7000 stars。
黄融杰
浙江大学
数字媒体与计算(DCD)实验室
研究领域:
语音音乐生成模型、多模态语言处理
导师:赵洲
黄融杰的研究方向为语音音乐生成模型,多模态语言处理等。近年来,他已在 NeurlPS、ICML、ICLR、ACL 等 A 类会议发表十余篇文章,引用量 500+,相关项目 Github 星标 10k+。他长期担任 NeurIPS、ICML、ICLR、ACL 等顶会审稿人,荣获 2022 年 ICML 杰出审稿人,曾获浙江省优秀毕业生、国家奖学金等多项荣誉。
黄融杰参与的 NATSpeech、TransFace、Make-An-Audio 等系列工作解决了非自回归生成、多模态语音翻译、开放域和多任务生成的难题。
非自回归 NATSpeech 系列中,高泛化性 GenerSpeech 实现了对未见语者、情感、韵律的可泛化零样本迁移与高质量无监督风格建模,解决了高质量、可控性、可泛化的跨模态序列映射问题;多模态同传 TransFace 系列中,TranSpeech 建立非自回归 S2ST 模型,应对了非自回归翻译中的语言学多峰性挑战。
音视频 TranSpeech 则用视觉信息补充音频流,以提高系统的稳健性,开辟了口述、为档案电影配音的应用前景;开放域多任务系列中,开放域生成模型 MAA 1/2 将文本到音频的生成系统将任意模态(例如文本、音频、图像、视频等)作为输入,输出开放域符合描述的音频音效,多任务生成模型 AudioGPT 1/2 完成多任务、多语言、多模态语言语音任务,打造了能听会说的智能体。
孔祥哲
清华大学
自然语言处理与社会人文计算实验室
研究领域:
几何图学习、分子表征学习、分子生成、抗体设计
导师:刘洋
孔祥哲目前主要的研究方向为 AI4Science,其中包含几何图学习、分子表征学习、分子生成、抗体设计等,曾在 NeurIPS、ICLR、ICML 等多个国际顶级会议发表过高水平论文。
他主要研究基于几何图学习解决科学领域的问题,尤其集中在生物、化学、制药等方面。这些领域的研究对象多是原子、分子等三维空间中的微观粒子。
在小分子生成领域上,他提出了主子图的概念以及相应的抽取和分子分解算法,并开发了基于主子图的小分子设计与优化模型,相关论文在 NeurIPS 2022 上进行了口头汇报。
在抗体设计领域,他将条件抗体设计形式化为了几何图生成的任务,并将 E(3)- 等变性内嵌入多通道注意力图网络,提出了渐进式的非自回归生成算法,在条件抗体设计上取得了 SOTA 的效果,相关论文《Conditional Antibody Design as 3D Equivariant Graph Translation》发表在 ICLR 2023 上,并被提名了杰出论文奖。
在此基础之上,孔祥哲结合实际落地需求,在未知抗体结构和结合构象的场景中设计了首个端到端全原子条件抗体设计的模型,仅依赖抗原决定簇和给定的框架序列即可生成完整的抗原-抗体复合物,相关论文发表在 ICML 2023 上。
李云飞
清华大学
交叉信息研究院
研究领域:强化学习、机器人
导师:吴翼
李云飞主要研究强化学习与机器人交叉方向,主要研究内容是如何让机器人具有像人一样自主解决复杂任务的能力,从而更好地适应灵活多变的人类日常生活,从实验室和工厂来到现实生活。
她在该方向提出了两条研究路径,一条是增强机器人探索到复杂策略的能力,另一条是复用机器人已有能力去解决新任务,以达到持续创新能力。截至目前,她已在 ICLR、ICML、IROS、ICRA 等机器学习 & 机器人领域顶级会议上发表相关研究成果近 10 篇。
在产研合作方面,李云飞与产业界公司合作的智能机械臂项目可以在没有图纸的情况下探索出利用长短不一的物料搭建稳定的积木桥的策略,并在实机部署;提出的主动简化任务再复用自我策略的强化学习框架是第一个仅依赖二值化奖励信号就能控制机械臂搭出 6 层积木塔的工作。
路橙
清华大学
统计人工智能与学习组
研究领域:机器学习、深度生成模型
导师:朱军
路橙是清华大学计算机系 TSAIL 组博士五年级的学生。研究方向包括机器学习、深度生成模型及其在计算机视觉和离线强化学习中的应用。
他作为第一作者提出的无需额外训练的扩散模型加速采样算法 DPM-Solver 和 DPM-Solver++ 是目前扩散模型最主流的采样算法之一。该算法极大地提升了扩散模型的采样效率,仅仅需要 10 到 25 步就可以得到非常高质量的采样,且无需任何额外训练。
DPM-Solver 在各大开源社区产生了广泛的影响,目前该项目已经在 Github 获得 1k+ star,并已被扩散模型主流库 Diffusers 支持。该算法是目前 Stable-Diffusion 的官方示例的默认采样算法,在 DreamStudio、StableBoost、Stable-Diffusion-WebUI 等各大 text-to-image 项目中也为公认的加速效果最好的算法。
他积极探索扩散模型的基础理论和应用场景,在扩散模型的最大似然训练理论、加速采样、可控生成、跨域生成等方面发表了十余篇论文。
孙天祥
复旦大学
自然语言处理实验室
研究领域:自然语言处理
导师:黄萱菁、邱锡鹏
孙天祥主要关注预训练语言模型的知识增强、高效训练、动态推理、无梯度优化等研究方向。
他于 2022 年初首次公开提出“语言模型即服务”的概念并开发了面向大规模语言模型的黑箱优化方法,该方向后续被 MIT, UCB, CMU, Google Brain 等高校和科研机构引用和延续。主导研发的 MOSS 系统是国内最早的对话式语言模型之一和最早的多插件增强语言模型之一,在 Github 获得超 11K Star,被多家媒体报道。
他作为第一作者在 ICML, AAAI, ACL, EMNLP, NAACL, COLING 等国际顶级会议发表论文 10 余篇,据 Google Scholar 统计被引 1900 余次,曾获复旦大学国家奖学金、复旦大学学术之星、WAIC 云帆奖·明日之星等。
汪子龙
香港科技大学
智能网络与系统实验室 iSING Lab
研究领域:
数据中心高性能网络与系统、硬件加速
导师:陈凯
香港科技大学计算机科学专业博士在读,主要研究数据中心高性能网络与系统以及硬件加速。
汪子龙的研究方向主要是数据中心设计高性能网络与系统,专注于通过硬件和软件的方法来优化数据中心网络和云、AI 系统,主要分为高速网络和领域专用加速器两个方面。高速网络方面,他致力于为各种场景提供高性能的网络服务,包括高吞吐、低延迟,例如为数据中心云设计通用的 RDMA 网络,以及为 AI 集群定制芯片互联技术。针对领域专用加速器,则集中在结合具体应用和系统的特点来做硬件加速优化。
他在这些领域的研究中取得了多项重要成果,相关工作发表在了 NSDI、SIGCOMM、OSDI 等顶级网络系统会议,如高速网络方面的 SRNIC(NSDI’23,高性能的、可拓展的RDMA网卡)、Tiara(NSDI‘22,可拓展的、高效的数据中心网关系统)、Aeolus(SIGCOMM’20,最优化数据中心主动传输协议)以及领域专用加速器方面的 FAERY(OSDI‘22,首个推荐召回加速器)。这些成果在业界产生了广泛影响,在工业界得到了落地,帮助业务得到了进一步的提升。
袁牧
中国科学技术大学
LINKE 实验室
研究领域:智能物联网
导师:李向阳
袁牧的研究主要围绕智能物联网场景中的模型推理系统,关注深度学习模型在实际系统中如何提供低延迟、低功耗、高精度的推理服务。
他以第一作者发表 CCF-A 类论文六篇,包括计算机网络领域顶会 ACM SIGCOMM 和 ACM MobiCom,曾作为队长参与全国高校云计算应用创新大赛,荣获 1500 余支队伍中的唯一特等奖。
针对视频智能分析系统中长期存在的带宽需求大、处理延迟高、资源占用多等效率低下问题,他研发了一系列模型推理优化技术,相关成果以第一作者论文在 ACM SIGCOMM、ACM MobiCom、IEEE TPAMI 等顶会和顶刊上发表,并作为项目主要学生负责人成功将相关技术落地应用于实际场景。
张博航
北京大学
通用人工智能国家重点实验室
研究领域:机器学习
导师:王立威
张博航,北京大学五年级博士生,博士期间的研究方向为机器学习,聚焦神经网络表达能力这一机器学习领域基础性问题,并以表达能力为指导来研究鲁棒学习、图学习、大语言模型等领域的核心问题。
他在博士期间在 NeurIPS、ICLR、ICML 上共发表 9 篇论文,均为(共同)第一作者,并有 3 篇论文入选口头报告。
其主要代表性工作荣获 ICLR 2023 Outstanding Paper Award(杰出论文奖),该工作通过双连通性这一新颖的指标重新审视了图神经网络的表达能力,并从理论上证明了距离信息与双连通性之间的密切关系,开创了图神经网络表达能力领域的新研究方向。
另一篇代表性工作入选 NeurIPS 2023 口头报告,该工作探究了大语言模型中的“思维链提示”这一常用技术背后的深层次机理,从理论上指出了 Transformer 模型在数学和推理能力上的本质缺陷以及“思维链提示”对提升相关能力的帮助。
张博航在博士期间连续五年荣获北京大学校长奖学金,曾荣获北京大学三好学生、学术智星、石青云院士论文奖等荣誉。曾参加 ACM 国际大学生程序设计竞赛并进入 2019 年葡萄牙世界总决赛。
张心怡
北京大学
数据与智能实验室
研究领域:自治数据库系统
导师:崔斌
张心怡,北京大学计算机学院博士研究生,师从崔斌教授。她的研究方向聚焦在自治数据库系统,重点关注了数据库系统智能调优在生产环境中的关键问题,包括数据冷启动、安全隐患和高维优化等方面。她已发表 10 篇 CCF-A 类论文,其中 5 篇是数据库领域顶级会议的第一作者论文。
她的研究工作包括多个方面的突破,包括首个数据库在线调优系统(SIGMOD 2022)、首个多模块数据库调优框架(SIGMOD 2023)、基于元学习的资源优化研究(SIGMOD 2021)。这些工作从不同角度提高了数据库系统的性能和表现。
张心怡同学注重将科研成果应用于实际项目。她设计并开发了工业界首个正式上线的数据库智能调参系统。该系统在不同工作负载下实现了 13% 到 50% 的吞吐率提升,为企业和云服务提供商提供了重要的性能优化工具。她的核心技术成果于 SIGMOD 2021 会议上以第一作者身份发表。她的工作对自治数据库系统研究做出了积极贡献,并为实际应用场景提供了创新性解决方案。
朱琪豪
北京大学
高可信软件技术教育部重点实验室
研究领域:程序自动生成、程序自动修复
导师:熊英飞
朱琪豪的研究重点是软件工程与深度学习的交叉领域,尤其是研究程序编程语言的语言定义与神经网络的融合。
他将编程语言看作一种具有特定语言定义的系统,比将其视为一种自然语言,更能准确、全面地理解代码的结构和语义信息,努力探索和利用这一核心信息,来推动软件工程和深度学习领域的发展。
朱琪豪共合作发表了 14 篇 CCF-A 类国际会议论文,其中 5 篇一作论文。他已完成的研究工作将对程序语言定义的语法、类型、语义等约束信息设计了特定的神经网络结构进行编码,相关论文分别发表于 ICSE、ESEC/FSE、ASE、IJCAI、AAAI 等国际会议上,并被提名 ESEC/FSE 2021 杰出论文,荣获 ASE 2022 杰出论文奖。
自 2021 年起,字节跳动奖学金已经完成了三届的评选,共有 32 位优秀青年学子获得了奖学金的支持。
我们相信,拥有探索与实践精神的人才,是推动科技世界进步的重要动力,对科技人才的帮助和支持,是我们激发这个世界科技创新的一种重要方式。
字节跳动希望能与优秀学子共同成长,用务实的精神推动解决真实的问题,共同回馈社会。
关于字节跳动奖学金
论文被引上千次,GitHub 开源6000星,他们是首届字节跳动奖学金获奖者
顶会杰出论文作者,数千星开源作者,这十位学子荣获第二届字节跳动奖学金
字节跳动 2024 校园招聘正在进行中
点击「阅读原文」,加入字节跳动技术团队