知识图到文本的生成——拾叁

本文总结了知识图到文本生成算法的关键,重点分析了训练、生成和评估过程。采用GraphWriter模型,该模型基于Transformer扩展到图结构输入,利用Graph Attention Network编码图形信息。通过SciIE系统提取科学文章摘要的实体、共指和关系,构建知识图谱。通过对torch和深度学习的学习,理解了模型的工作原理,并对其实用性和效果进行了探讨。
摘要由CSDN通过智能技术生成

2021SC@SDUSC

工作总结

整个知识图到文本生成的算法的关键代码和核心代码,已经由我和两个队友全部分析完毕。我们在项目初期开会商讨,认为整个算法大致分为三个板块:训练→生成→评估。对应的源代码为train.py→generator.py→eval.py。三个代码需要分别运行,才能得到最终结果。

我主要负责分析数据集的训练,总结一下代码的逻辑和脉络,结合论文中提到的:

“To effect our study, we use a collection of abstracts from a corpus of scientific articles (Ammar et al., 2018). We extract entity, coreference, and relation annotations for each abstract with a state-of-the-art information extraction system (Luan et al., 2018), and represent the annotations as a knowledge graph which collapses co-referential entities. An example of a text and graph are shown in Figure 1. We use these graph/text pairs to train a novel attention-based encoder-decoder model for knowledge-graph-to-text generation. Our model, GraphWriter, extends the successful Transformer for text encoding (Vaswani et al., 2017) to graph-structured inputs, building on the recent Graph Attention Network architectur

  • 0
    点赞
  • 0
    收藏
    觉得还不错? 一键收藏
  • 0
    评论
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值