重磅预告 | ACL 杰出论文获得者开讲!

点击蓝字

7fc9e04c24b98352914c12c54633a32e.png

关注我们

AI TIME欢迎每一位AI爱好者的加入!

6月15日、16日19:30,本期我们邀请到荣获ACL杰出论文的五位讲者给大家带来精彩的分享!

3a242d68a1550ef238dc25302dcc3e3e.png

哔哩哔哩直播通道

扫码关注AI TIME哔哩哔哩官方账号预约直播

238748bfe7c03a874e17a6c7f5efbbb1.gif

6月15日 19:30-20:30

88587f7bd60331beb2977b96205dac23.gif

c1dfb5f34f9db2a67a97cbf104b6b38d.png

高天宇:

普林斯顿大学博士二年级在读,导师为陈丹琦教授。他的研究方向是预训练语言模型,对比学习,少样本学习等。在加入普林斯顿之前,他于清华大学获得本科学位,导师为刘知远教授。

分享内容:

92fab07811ab368b3fcb34b1a3a4f619.gif

放弃“金”标准:如何评测对话问答系统

报告简介:

对话问答研究如何在信息索取对话中为用户提供答案。目前的对话问答数据集在评测中通常使用预先采集的 人-人 对话,并在对话历史中使用标准答案(金标准)。这样的评测方式与真实应用环境存在巨大的差距,并且很难反应模型在真实世界中的表现。我们开展了针对对话问答系统的第一个大规模人类评测。我们要求标注员与模型进行对话并判断其答案的正确性。我们发现人类与模型的对话和人-人对话非常不同,并且现有的评测与我们的人类评测结果不一致。基于我们的分析,我们提出了一个新的自动化评测方法——我们通过问题改写机制使得自动化评测和人类评测更一致。最后,我们分析了不同模型策略对其表现的影响,并讨论了若干可能的对话问题研究方向。

4b28361e93f4972d9261ef1ee4e4a479.png

周嘉伟:

哈佛大学自然语言处理小组博士生,导师是Professor Alexander (Sasha) Rush (现任职于康奈尔大学)。他的研究方向为自然语言处理和深度学习,包括自然语言生成,例如自动摘要、翻译等应用,基于图结构生成的语义解析,以及图结构数据的机器学习和神经网络的应用。他取得了哈佛大学统计系的硕士学位,以及清华大学电子工程系的本科学位。

分享内容:

aeca53708efa0faa54c1d220a7185095.gif

在面向任务的对话中减少延迟的在线语义解析

报告简介:

标准会话语义解析(conversational semantic parsing)将完整的用户话语映射到可执行程序中,然后执行该程序以响应用户。当程序包含昂贵的函数调用时,这可能会很慢。我们研究通过在用户仍在说话时预测和执行函数调用来减少延迟的机会。为此,我们引入了在线语义解析任务(online semantic parsing),并采用受同步机器翻译(simultaneous machine translation)启发的形式延迟减少指标。我们提出了一个通用框架,首先是一个学习的前缀到程序(prefix-to-program)预测模块,然后是一个简单而有效的阈值启发式算法,用于早期执行的子程序选择。在 SMCalFlow 和 TreeDST 数据集上的实验表明,我们的方法通过良好的解析质量实现了大幅延迟减少,延迟减少 30%–65%,具体取决于函数执行时间和允许的成本。

6月16日 19:30-20:30

f34e41333ef0d0908ee052e5bdcda6fe.gif

9cfc190ae8ce050aa895cdf4271be21c.png

魏相鹏:

达摩院算法专家,2021年6月毕业于中国科学院大学,获得工学博士学位。长期从事自然语言处理的基础算法研究,研究兴趣包括神经机器翻译、多语言文本生成及跨语言表示学习等。

分享内容:

cba4053943161da6b3b3e96252a282e3.gif

基于连续语义增强的神经机器翻译

报告简介:

神经机器翻译是目前主流的机器翻译技术,它需要从大量双语数据中学习翻译能力。然而双语数据有限且获取成本很高,翻译质量的提升遇到诸多困难,数据稀缺的场景问题更加凸显。针对这一问题,该论文突破了传统离散语义空间数据增强方法,以有限的训练样本为锚点,学习连续语义分布以建模全局的句子空间,并据此构建神经机器翻译引擎。论文提出的方法能够有效地提升双语数据的利用效率,显著改善模型的泛化能力和鲁棒性。

c1a84c09349584ba6e61e2d37996e280.png

陶超凡:

香港大学博士二年级,导师是黄毅和罗平。主要研究方向是模型在不同任务上的压缩和加速。

分享内容:

975b7d5d467edadb9fd99c7a5b82d6fa.gif

基于量化的生成式预训练语言模型压缩

报告简介:

预训练语言模型(PLM)的模型大小在不断增大。虽然目前有很多工作研究了BERT以及相关变体的压缩,很少有工作关注生成式语言模型的压缩。在本工作中,我们通关量化的方式对生成式语言模型进行压缩。我们发现一些以前的量化方法在压缩生成式语言模型的时候会出现词向量同质化和权重分布差异较大的问题。对此,我们提出了一个基于对比学习的蒸馏方法和一个模块自适应的量化器,使得不同的词向量的区分度增大,且量化过程更为精准。实验表明,在和未压缩模型的表现差距可接受的范围内,我们的方法在GPT-2和BART上分布取得了14.4x和13.4x的压缩率。

直播结束后大家可以在群内进行提问,请添加“AI TIME小助手(微信号:AITIME_HY)”,回复“ACL”,将拉您进“ACL 交流群”!

a9d1382a99d0b784ba202448a9ec5f73.gif

AI TIME微信小助手

bb0b9ac0fae492687e330536c2df6bd1.png

主       办:AI TIME 

合作媒体:AI 数据派、学术头条

合作伙伴:智谱·AI、中国工程院知领直播、学堂在线、蔻享学术、AMiner、 Ever链动、科研云

活动推荐

f8dce74a43b4c501bb14adf5a7326db9.png

记得关注我们呀!每天都有新知识!

 关于AI TIME 

AI TIME源起于2019年,旨在发扬科学思辨精神,邀请各界人士对人工智能理论、算法和场景应用的本质问题进行探索,加强思想碰撞,链接全球AI学者、行业专家和爱好者,希望以辩论的形式,探讨人工智能和人类未来之间的矛盾,探索人工智能领域的未来。

迄今为止,AI TIME已经邀请了600多位海内外讲者,举办了逾300场活动,超210万人次观看。

1aed5203c969757106369688e98e825c.png

我知道你

在看

~

4b7600a17470353e2b7ad0d05fa89a97.gif

点击 阅读原文 预约直播!

评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值