- 博客(5)
- 收藏
- 关注
原创 【论文阅读】Discovering Language Model Behaviors with Model-Written Evaluations
训练数据生成:使用LMs生成各种任务的训练数据,本文的工作通过检查生成的数据是否可以作为高质量的评估数据,有用的生成训练数据可以包含噪声,但是评估数据必须包含较少的错误。两阶段模型:首先,Pg给定生成带有y标签的x,可以是任何文本生成模型,为每个输出类采样许多输入,然后,用另一个模型Pd作为判别器评估每个示例的正确性,选择概率最高的。这篇文章主要就是讲述了如何使用LMs生成一些评估样本,并对这些样本的生成过程和格式进行了描述,主要提供了四类不同的评估数据集,有利于针对于特定的任务进行评估。
2023-09-15 13:20:57
131
1
原创 【论文阅读】Multitasking Framework for Unsupervised Simple Definition Generation
AdaGram向量解决多义词生成不同的定义问题,根据语境生成不同的定义成为主流方法使用预先训练好的语言模型获得语境化的嵌入本文提出的SimpDefiner将给定的单词和上下文作为输入,基于MASS(Song et al, 2019)一个预训练的encoder-decoder模型适合于生成任务SDG任务是为一个给定的词和语境(w*,c)生成一个简单的定义dsim,c是包含w*的句子,是完全无监督的。
2023-04-30 15:05:10
109
1
原创 【论文阅读】M3ED: Multi-modal Multi-scene Multi-labelEmotional Dialogue Database
根据文中的地址查看了一下数据集:https://github.com/AIM3-RUC/RUCM3EDSplitInfo是电视剧的名称,分别是训练集、验证集、测试集的剧集Annotation.json针对每一部电视剧,首先是说话的双方A、B的信息,包括名字、年龄、性别,然后对每一个片段分别有开始时间和结束时间、文本信息、说话者、情绪(三个注释者的情绪和最终的情绪)
2023-04-26 18:32:09
734
2
原创 【论文阅读】Think Before You Speak: Explicitly Generating Implicit Commonsense Knowledge for Response
论文:《Think Before You Speak: Explicitly Generating Implicit CommonsenseKnowledge for Response Generation》说话前三思:显示地为回复生成产生隐性的常识性知识。
2023-04-18 16:26:56
196
1
原创 【论文阅读】Multimodal dialogue response generation
现有的工作只专注于多模态对话模型,依赖基于检索的方法,而忽略了生成方法。一个新任务:多模态对话回应生成MDRG,给定对话背景,一个模型需要生成文本或图像作为回复。文本和图像的多模态对话很难获得。假设一种低资源环境:只有有限的训练实例可以使用,设计一个新的对话代理Divter,从整个生成模型中分离出依赖于多模态对话的参数,模型的主要部分可以分别从大量的纯文本对话和文本-图像对中学习,然后只需要使用少数训练实例就可以很好的拟合整个参数。
2023-04-11 19:13:02
193
1
空空如也
空空如也
TA创建的收藏夹 TA关注的收藏夹
TA关注的人