顶会ACL 2024专场:大模型多语言能力

 Datawhale论文 

分享:陈安东,哈工大,Datawhale成员

WhalePaper简介

由Datawhale团队成员发起,对目前学术论文中比较成熟的 Topic 和开源方案进行分享,通过一起阅读、分享论文学习的方式帮助大家更好地“高效+全面+自律”学习,让大家都有所收获和提升!方向包括自然语言处理(NLP)、计算机视觉(CV)、推荐(Res)等相关方向的论文解读和分享,后续将融入更多的方向。

开源地址:https://datawhalechina.github.io/whale-paper

本期活动

b05a00f6062f2f5e8317cb225a480d38.jpeg

嘉宾简介

陈安东,哈尔滨工业大学计算机系二年级博士生,研究方向大语言模型(LLM)的多语言方向。在ACL、EMNLP、ICAIL和TALLIP等AI领域顶级会议和期刊上发表多篇论文。Datawhale成员,大模型基础和理论开源教程So-Large-LM发起人,目前获得了1.4K stars。

Github地址:https://github.com/datawhalechina/so-large-lm

公众号专栏大航海图鉴:大模型全指南系列

分享详情

论文题目:DUAL-REFLECT: Enhancing Large Language Models for Reflective Translation through Dual Learning Feedback Mechanisms

分享方向:大模型多语言能力

分享大纲:

      1. 大模型有望成为这个时代的巴别塔?

      2. 当前大模型多语言能力局限性

      3. 机器翻译与大模型翻译范式的迁移

      4. 向“信达雅”的多语言能力前进

论文简介:

最近,通过自我反思增强的大型语言模型(LLMs)在机器翻译上取得了惊艳的表现。其核心思想是基于LLMs的反思能力优化生成的翻译结果。然而,现有的自我反思方法缺乏有效的反馈信息,限制了翻译性能。

为解决这一问题,我们引入了一个双重反思框架(DUAL-REFLECT),利用翻译任务的对偶学习特性提供有效反馈信号,从而增强模型的自我反思能力并提升翻译表现。这种方法在各种翻译任务中提高了翻译的准确性,并且增强了消除歧义方面的能力。

分享地址:#腾讯会议:891-723-748

分享时间:2024年5月30日(周四)19点30

Paper议程:分享45分钟,提问环节不限时

本场分享会在b站同步直播

请关注: 二次元的Datawhale

6e1557f825a07056359a8d36ca1bfe27.png

进群参与

553f730d228850eb68aad5b70c337f07.jpeg

群满在公众号后台回复“paper”

aee6418b261227e08798be7c6857250a.png

一起“赞”三连

评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值