![](https://img-blog.csdnimg.cn/20201014180756927.png?x-oss-process=image/resize,m_fixed,h_64,w_64)
论文笔记
文章平均质量分 86
Y.zzz
随心笔记
展开
-
论文阅读:在开放域web关键词抽取中引入多模态信息
开放域关键短语抽取(KPE)是一项基础而复杂的自然语言处理任务,在信息检索领域有着广泛的实际应用。与其他文档类型相比,web页面设计的目的是便于导航和查找信息。有效的设计编码在布局和格式信号,指出哪里可以找到重要的信息。在这项工作中,我们提出一种建模方法,利用这些多模态信号,以帮助在KPE任务。特别是,我们在微观层次上利用词汇和视觉特性(例如,大小、字体、位置)来实现有效的策略归纳,在宏观层次上描述页面的元级特性来帮助策略选择。我们的评估表明,在KPE任务中,有效的策略归纳和策略选择方法的组合优于现有的模型原创 2020-11-27 11:31:39 · 966 阅读 · 3 评论 -
Few-Shot Learning with Graph Neural Networks(图神经网络小样本学习)
GNN是由许多节点和边构成的图模型,在本文中,每一个节点都代表一幅输入的图像,而每个边上的权重就表示两幅图之间的关系(可以理解为距离或者相似程度)。本文采用的是稠密连接的图,因此每两个输入图片之间都有边连接起来,邻接矩阵就储存了任意两个节点之间的权重值。最后是用于学习的网络,代码中显示是由一个全连接层构成的。然后,将特征向量与表示标签的向量h(l)【独热向量one-hot】级联起来,作为GNN的输入节点,共同输入到GNN中,而邻接矩阵的计算,就会更新两个节点之间的连接权重,因此图模型的结构也发生了变换。原创 2020-10-29 10:19:45 · 4296 阅读 · 1 评论 -
ICLR 2020《Language Models are Open Knowledge Graphs》论文笔记
来源: ICLR作者:清华大学、UCB内容:可以发现其他没有被KG schema预先定义的关系,自动建立完善知识图谱。创新点:预训练的语言模型:词嵌入(Word Embedding):Word2Vec和Glove上下文嵌入(Context Word Embedding): CoVe和ELMO预训练模型: GPT和BERT改进型和领域定制型: 改进型代表为ALBERT和XLNet;领域定制化代表为SciBert (Scientific Bert) 和BioBert(Biomedical .翻译 2021-07-05 11:14:47 · 632 阅读 · 0 评论