Datawhale干货
来源:WhalePaper,负责人:芙蕖
WhalePaper简介
由Datawhale团队成员发起,对目前学术论文中比较成熟的 Topic 和开源方案进行分享,通过一起阅读、分享论文学习的方式帮助大家更好地“高效+全面+自律”学习,让大家都有所收获和提升!方向包括自然语言处理(NLP)、计算机视觉(CV)、推荐(Res)等相关方向的论文解读和分享,后续将融入更多的方向。
开源地址:https://datawhalechina.github.io/whale-paper
WhalePaper | Github
本期活动
分享时间:2023年7月23日(本周日) 20:00
分享方向:知识获取、大语言模型
分享工具:#腾讯会议:234-628-858
paper议程:分享30分钟,提问环节不限时。
分享大纲:
研究背景
基于大模型语言模型的限制约束语言规划
从大模型中获取脚本知识
小模型的约束规划能力
嘉宾&论文概况
嘉宾简介:员司雨,论文第一作者,复旦大学大数据学院博士(卓博计划),指导教师是大数据学院的阳德青副教授与计算机学院的肖仰华教授。研究方向为知识获取、大语言模型。在国际自然语言处理研究领域的顶级会议 (ACL/EMNLP/ISWC等)上发表多篇论文。
个人主页:Siyu Yuan
论文题目:Distilling Script Knowledge from Large Language Models for Constrained Language Planning
论文地址:https://arxiv.org/abs/2305.05252
论文简介:该文已经被自然语言处理顶会ACL 2023作为主会长文录用。本文工作关注约束语言规划的问题,将语言规划推向了更具体的目标。论文作者评估了LLMs的少量示例约束语言规划能力,并为LLMs开发了一种超生成然后过滤的方法,使准确性提高了26%。基于本文的方法,作者还使用LLMs生成了一个约束语言规划的高质量脚本数据集(CoScript)。利用CoScript,可为专业化和小型模型提供具有约束语言规划能力的能力,其性能可媲美LLMs。
参与方式
扫码加入WhalePaper群
若群满请在公众号后台回复“paper”
WhalePaper负责人联系方式:
芙蕖(微信号:MePhyllis)
华挥(微信号:BuShouY)