北语在SemEval 2022释义建模任务上斩获佳绩

北京语言大学与北京交通大学的联合团队在第十六届国际语义评测比赛CODWOE任务的释义建模子任务中取得优异成绩。他们在五种语言的比赛中名列前茅,采用了基于交叉注意力机制的多任务框架CAMF,提升了模型的释义生成能力。团队依托于北京语言大学信息科学学院的研究平台,专注于智能辅助语言学习和语言监测研究。
摘要由CSDN通过智能技术生成

每天给你送来NLP技术干货!


近日,第十六届国际语义评测比赛(International Workshop on Semantic Evaluation, SemEval 2022)落下了帷幕。由北京语言大学信科院杨天麟老师、杨尔弘老师和北京交通大学计算机与信息技术学院黄雅平老师带领的参赛队伍(团队名:BLCU-ICALL,团队成员:孔存良、王誉杰、崇瑞宁、张恒源)在Task1:CODWOE - Comparing Dictionaries and Word Embeddings(比较词典与词向量),释义建模子任务上斩获佳绩。在比赛设置的五种语言(EN, ES, FR, IT, RU)中,分别取得了第一(IT),第二(ES,RU)和第三(EN,FR)的名次。

https://competitions.codalab.org/competitions/34022

c1c85cd3181b98409f24125e157039de.png

比赛介绍

SemEval是全球范围内影响力最强、规模最大、参赛人数最多的语义评测竞赛,由国际计算语言学协会(Association for Computational Linguistics, ACL)下属的SIGLEX主办。ACL作为世界上影响力最大、最具活力的国际学术组织,其举办的计算语言学年会(Annual Meeting of the Association for Computational Linguistics)是国际自然语言处理的顶级会议。

我们的方法

本次比赛中,由于限制了预训练模型和额外数据的使用,针对输入信息匮乏的情况,我们设计了基于交叉注意力机制的多任务框架CAMF (Cross-Attention Multitasking Framework)。该框架主要包括以下特点:

  • 框架融合了比赛提供的不同类型的语义向量,并且可以动态调整每个向量的权重。这样,模型可以结合更加丰富的语义信息,逐词生成出最终的释义。

  • 框架使用遮罩语言模型(MLM,Masking Language Model)联合建模释义信息,使得模型可以生成更加流畅、准确的释义。

  • 通过集成学习(Ensemble Learning)来融合多个模型,相比于单一模型鲁棒性更强,效果更好。

我们的模型在效果上较比赛方提供的基线模型有较大提升。

关于我们(BLCU-ICALL)

北京语言大学语言监测与智能学习组(BLCU-ICALL),隶属于信息科学学院,依托国家语言资源监测与研究平面媒体中心和语言资源高精尖创新中心开展科学研究。学术带头人为杨尔弘教授,核心骨干为岳岩副教授和杨天麟副教授。

我组致力于智能辅助语言学习和语言监测研究,以语料库语言学、计算语言学和人文计算等为学科基础,瞄准智能语言学习若干前沿问题,探索辅助汉语学习的理论、方法、技术;以大规模动态流通语料库为基础,探索动态语言知识更新。

编辑:崇瑞宁、孔存良、王梦焰

下载一:中文版!学习TensorFlow、PyTorch、机器学习、深度学习和数据结构五件套!  后台回复【五件套】
下载二:南大模式识别PPT  后台回复【南大模式识别】

投稿或交流学习,备注:昵称-学校(公司)-方向,进入DL&NLP交流群。

方向有很多:机器学习、深度学习,python,情感分析、意见挖掘、句法分析、机器翻译、人机对话、知识图谱、语音识别等。

8686c4a0d2530b159660a1147a476d48.png

记得备注呦

整理不易,还望给个在看!
  • 0
    点赞
  • 0
    收藏
    觉得还不错? 一键收藏
  • 0
    评论
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值