带你读论文第二期:复旦大学员司雨,荣获ACL Outstanding Paper Award 2023!

 Datawhale干货 

来源:WhalePaper,负责人:芙蕖

WhalePaper简介

由Datawhale团队成员发起,对目前学术论文中比较成熟的 Topic 和开源方案进行分享,通过一起阅读、分享论文学习的方式帮助大家更好地“高效+全面+自律”学习,让大家都有所收获和提升!方向包括自然语言处理(NLP)、计算机视觉(CV)、推荐(Res)等相关方向的论文解读和分享,后续将融入更多的方向。

开源地址:https://datawhalechina.github.io/whale-paper

WhalePaper | Github

本期活动

85a3ee76f5a7840ab8326432e89d3a8e.jpeg

分享时间:2023年7月23日(本周日) 20:00

分享方向:知识获取、大语言模型

分享工具:#腾讯会议:234-628-858

paper议程:分享30分钟,提问环节不限时。

分享大纲:

  1. 研究背景

  2. 基于大模型语言模型的限制约束语言规划

  3. 从大模型中获取脚本知识

  4. 小模型的约束规划能力

嘉宾&论文概况


94e1dec7becc6b5696181a9f74880ae1.jpeg

嘉宾简介:员司雨,论文第一作者,复旦大学大数据学院博士(卓博计划),指导教师是大数据学院的阳德青副教授与计算机学院的肖仰华教授。研究方向为知识获取、大语言模型。在国际自然语言处理研究领域的顶级会议 (ACL/EMNLP/ISWC等)上发表多篇论文。

个人主页:Siyu Yuan

论文题目:Distilling Script Knowledge from Large Language Models for Constrained Language Planning

论文地址:https://arxiv.org/abs/2305.05252

论文简介:该文已经被自然语言处理顶会ACL 2023作为主会长文录用。本文工作关注约束语言规划的问题,将语言规划推向了更具体的目标。论文作者评估了LLMs的少量示例约束语言规划能力,并为LLMs开发了一种超生成然后过滤的方法,使准确性提高了26%。基于本文的方法,作者还使用LLMs生成了一个约束语言规划的高质量脚本数据集(CoScript)。利用CoScript,可为专业化和小型模型提供具有约束语言规划能力的能力,其性能可媲美LLMs。

参与方式

扫码加入WhalePaper群

0ebcc029654caa7bc8015cee8f564c46.jpeg

若群满请在公众号后台回复“paper”

WhalePaper负责人联系方式:

芙蕖(微信号:MePhyllis)

华挥(微信号:BuShouY)

213171cfa7cf5fdee950ef3aeae08be6.png

  • 0
    点赞
  • 0
    收藏
    觉得还不错? 一键收藏
  • 0
    评论

“相关推荐”对你有帮助么?

  • 非常没帮助
  • 没帮助
  • 一般
  • 有帮助
  • 非常有帮助
提交
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值