NLG
文章平均质量分 59
wang2008start
这个作者很懒,什么都没留下…
展开
-
EMNLP2021 generation相关论文
Contrastive Domain Adaptation for Question Answering using Limited Text Corpora $Q^2$: Evaluating Factual Consistency in Knowledge-Grounded Dialogues via Question Generation and Question Answering A Large-Scale Dataset for Empathetic Response Generation原创 2021-12-31 15:47:40 · 395 阅读 · 0 评论 -
Low-Resource Knowledge-Grounded Dialogue Generation_biji
将 transformer 的 encoder-decoder 改为 两个encoder+一个decoder,具体为dialog encoder和knowledge encoder,相加, 通过controller 来学习knowledge部分和 dialog 部分的权重。整体学习过程分为三阶段,第一阶段将两个 encoder 分别单独学习,第二阶段通过远程监督构造数据集,将两个 encoder 联合学习。通过检索和 dialogue 最相似的 document 构造弱监督伪知识数据集。..原创 2021-12-31 13:00:31 · 571 阅读 · 0 评论 -
词汇约束的 bart 生成
方法生成中包含指定的 keyword(可指定多个keyword)。一般处理此类问题时,把工作放在decoder阶段,这里将主要工作放在 encoder 阶段,encoder 过 softmax 后 进行分类,每个 token 是要进行拷贝/替换/插入(0/1/2) 的 action操作的某种。在decoder时进行相关操作。 生成包含指定keyword的任务,这里需要迭代多次才能完成,首次输入只有指定的keyword,对每个keyword的左右生成相应词,将输出作为第二阶段的输入,如此迭代。结束条件?原创 2021-12-30 12:18:17 · 581 阅读 · 0 评论 -
知识图谱2021 paper_biji
Improving Conversational Recommender System by Pretraining Billion-scale Knowledge Graph利用商品图谱 pretrain 得到商品表示,图谱结构信息使用的最简单的 transR 进行,和普通特征一起过推荐排序模型。重点是商品图谱的构建,由用户 点击/收藏 商品,商品的类别属性,本session的关键词等构件图谱。Billion-scale Pre-trained E-commerce Product Kn.原创 2021-12-20 16:59:41 · 881 阅读 · 0 评论 -
K-BERT,KnowBERT,KEPLER,KELM,K-Adapter,CoLAKE_biji
K-BERT: Enabling Language Representation with Knowledge Graph.对于每个句子抽取出三元组,与原始句子合并一起编码position。输入给transformer,对于visible matrix。各个句子part只可见和自己有关的部分,无关的部分不可见。KnowBERT:Knowledge Enhanced Contextual Word Representations. (EMNLP 2019)将预训练得到的模型表示,经过知识提取后的知识表示原创 2021-06-30 23:25:57 · 1993 阅读 · 4 评论 -
知识图谱与自然语言生成NLG
RDF2TextFew-Shot NLG with Pre-Trained Language ModelLogical Natural Language Generation from Open-Domain TablesStructural Information Preserving for Graph-to-Text GenerationKnowledge Graph-Augmented Abstractive Summarization with Semantic-Driven Clo原创 2021-05-29 10:11:22 · 671 阅读 · 1 评论