自定义博客皮肤VIP专享

*博客头图:

格式为PNG、JPG,宽度*高度大于1920*100像素,不超过2MB,主视觉建议放在右侧,请参照线上博客头图

请上传大于1920*100像素的图片!

博客底图:

图片格式为PNG、JPG,不超过1MB,可上下左右平铺至整个背景

栏目图:

图片格式为PNG、JPG,图片宽度*高度为300*38像素,不超过0.5MB

主标题颜色:

RGB颜色,例如:#AFAFAF

Hover:

RGB颜色,例如:#AFAFAF

副标题颜色:

RGB颜色,例如:#AFAFAF

自定义博客皮肤

-+
  • 博客(42)
  • 收藏
  • 关注

原创 一文带你了解知识图谱融入预训练模型哪家强?九大模型集中放送

近年来,随着语言模型的技术发展,其在NLP领域获得巨大的成功,业界SOTA的前沿模型也大多是Transformer结构模型的变体。

2022-03-15 19:00:00 1514 1

原创 NLP论文解读:无需模板且高效的语言微调模型(下)

这篇论文提出的PERFECT模型及方法,对于预训练语言模型的小样本学习是简单且高效的,该方法并不需要手工的模板和词汇标签映射。

2022-03-14 19:00:00 778

原创 NLP论文解读:无需模板且高效的语言微调模型(上)

在12个NLP任务中,这种微调方法(PERFECT)在简单高效的同时,取得了与SOTA方法(如PET提示学习模型)相近甚至更高的结果。

2022-03-11 19:00:00 550

原创 基于BERT Adapter的词汇增强型中文序列标注模型

本文作者提出Lexicon Enhanced BERT (LEBERT) ,该模型在BERT底部的层中加入一个Lexicon Adapter层来融合文本的词汇特征。

2022-03-10 19:00:00 563

原创 CoLAKE: 如何实现非结构性语言和结构性知识表征的同步训练

为了解决非结构化文本与知识之间的异构性冲突,CoLAKE将两者以一种统一的数据结果将两者整合起来,形成word-knowledge graph,将其作为预训练数据在改造后的Transformer encoder模型上进行预训练。

2022-03-09 19:00:00 356

原创 GPT-3被超越?解读低能耗、高性能的GlaM模型

在这篇论文中,作者开发了以Mixture of Experts为基础的GlaM (Generalist Language Model)。它虽然参数量有GPT-3的7倍之多,但训练起来只需GPT-3三分之一的能耗,而且在NLP任务的表现上相比GPT-3持平甚至更优。

2022-03-08 19:00:00 494

原创 FaE:基于符号知识的适应性和可解释的神经记忆

本文作者开发了一种神经语言模型Facts-as-Experts (FaE),其在神经网络语言模型和符号知识库(symbolic KB)之间建立了一个桥梁,将深度神经网络的表达能力优势和符号知识库的推理能力优势进行了有机结合。

2022-03-07 19:05:17 933

原创 生成式预训练语言模型能否视作闭卷问答的知识库?

本文探讨的就是是否可以用PLM作为KB来完成闭卷问答(Closed-book QA)任务。该任务是一项极具挑战性的任务,它需要一个模型能直接回答问题,而无需访问外部知识。

2022-03-06 19:00:00 338

原创 抛弃模板,一种Prompt Learning用于命名实体识别任务的新范式

Prompt Learning通过设计一组合适的prompt将下游任务的输入输出形式重构成预训练任务中的形式,充分利用预训练阶段学习的信息,减少训练模型对大规模标注数据集的需求。

2022-03-05 19:00:00 462

原创 知识增广的预训练语言模型K-BERT:将知识图谱作为训练语料

本文所解读的K-BERT模型正是通过将知识图谱中的三元组转换为文本序列实现了结构的统一,在此基础上使用预训练语言模型编码文本和知识。

2022-03-04 19:00:00 595

原创 以小25倍参数量媲美GPT-3的检索增强自回归语言模型:RETRO

一个具有良好性能的语言模型,一定量的数据样本必不可少。

2022-03-03 16:51:30 786

原创 神经网络在快手短视频推荐中的应用

本文将从以下几个部分对上面论文进行讲解

2022-03-02 17:43:57 687

原创 一文打尽知识图谱

知识是人类在实践中认识客观世界的结晶。知识图谱(Knowledge Graph, KG)是知识工程的重要分支之一,它以符号形式结构化地描述了物理世界中的概念及其相互关系。

2022-03-01 19:00:00 1449

原创 一种图神经网络时序模型在工业化场景上的实践探索

传统的图模型通常执行两个串行操作:首先是图查询,然后是模型推理,由于查询 k-hop 邻居的时间复杂度比较大,很多图算法在时序神经网络模型中无法执行快速推理,因此,极大地限制了图算法的工业化推广。

2022-02-09 18:03:14 991 1

原创 RealFormer: 残差式 Attention 层的Transformer 模型

本文作者提出 RealFormer 模型(Residual Attention Layer Transformer),如下图Figure 1(c)所示,将残差结构运用到attention层,使得模型对训练超参更具鲁棒性的同时,保证模型性能的提升。

2022-02-08 12:03:41 723

原创 Transformer可解释性:注意力机制注意到了什么?

随着transformer模型的提出与不断发展,NLP领域迎来了近乎大一统的时代,绝大多数预训练方法例如BERT等都将transformer结构作为模型的框架基础,在NLP许多领域的SOTA框架中也常常能看到它的身影。

2022-02-07 12:18:31 2478

原创 X-former:不止一面,你想要的Transformer这里都有

本文将从传统的vanilla Transformer入手,从模型结构改进、预训练等两个角度全面的介绍各种不同形式的x-former,并对其未来的可能发展方向提出可行的建议。

2022-02-06 18:00:29 1788

原创 综述:一文带你了解情感分析的方法有几种

文本情感分析是自然语言处理领域的一个重要分支,广泛应用于舆情分析和内容推荐等方面,是近年来的研究热点。

2022-02-05 18:54:36 3409

原创 如何提高少样本学习中的参数有效性以及数据有效性

私信我领取目标检测与R-CNN/数据分析的应用/电商数据分析/数据分析在医疗领域的应用/NLP学员项目展示/中文NLP的介绍与实际应用/NLP系列直播课/NLP前沿模型训练营等干货学习资源。

2022-02-04 20:17:36 2347

原创 会话式知识库问答的焦点实体转换建模

本篇论文中,作者试图对这些隐含的实体进行建模,这些实体被作者称之为焦点实体(Focal Entities),如图1中的《伟大的盖茨比》、F. Scott Fitzgerald等等。

2022-02-03 18:51:50 456

原创 如何结合文本特征检测仇恨和攻击性语言

在这篇文章中,我们分析了如何结合不同的文本特征来检测Twitter上的仇恨或攻击性帖子。

2022-02-02 12:00:00 1640

原创 BERT-MRC:统一化MRC框架提升NER任务效果

受到当下一些研究者[4][5]将NLP问题转换为QA任务的启发,作者提出一种统一化MRC框架来同时解决nested NER和flat NER两种类型任务。

2022-02-01 19:26:40 1962

原创 文本图Tranformer在文本分类中的应用

本文作者引入了一个基于异质性图神经网络的新Transformer方法(文本图Transformer,或者TG-Transformer)。

2022-01-31 12:37:55 775

原创 多对多多语言神经机器翻译的对比学习

本篇ACL会议论文提出了一种统一多语言翻译模型mRASP2来改进翻译性能,利用多语言对比学习能综合表达的优点改进了机器翻译性能,尤其提高了非英语方向的翻译质量。

2022-01-30 21:18:47 869

原创 搜索历史、推理未来:时序知识图谱上的两阶段推理

那人类是如何预测未来事件的呢?根据心理学著名的双重过程理论,人类首先是搜索海量记忆,直观地找到一些相关的历史信息(即线索)。

2022-01-29 20:15:18 1029

原创 ERNIE代码解析

考虑到ERNIE使用BRET作为基础模型,为了让没有基础的NLPer也能够理解代码,笔者将先为大家简略的解读BERT模型的结构,完整代码可以参见[1]。

2022-01-28 18:00:00 1668

原创 知识增强的预训练语言模型系列之KEPLER:如何针对上下文和知识图谱联合训练

知识增强的预训练语言模型系列之KEPLER:如何针对上下文和知识图谱联合训练

2022-01-24 11:18:26 736

原创 论文解读:精华内容——用于常识推理的知识生成提示

论文解读:精华干货——用于常识推理的知识生成提示

2022-01-17 13:26:44 282

原创 论文解读:词语对齐的注意力机制,提升中文预训练模型效果

论文解读:词语对齐的注意力机制,提升中文预训练模型效果

2022-01-13 10:51:16 361

原创 端到端“大一统”模型 能否迎来多目标跟踪的终局?

©NLP论文解读原创•作者 | 朱林生活中多目标跟踪问题屡见不鲜,比如稠密人群检测、场景识别、智慧交通等场景下多目标跟踪都是避不开的话题。解决多目标跟踪(Multi-Object Tracking, MOT)问题有两种基本范式,其一是先检测后跟踪(Tracking-by-detection, TBD),将检测和跟踪作为两个独立任务来对待。另外一种是联合检测和跟踪两个任务(Joint detection and tracking,JDT),进行端到端(End-to-en..

2022-01-12 15:28:41 1592

原创 论文笔记:多任务学习在美团推荐中的应用

论文笔记:多任务学习在美团推荐中的应用

2022-01-12 11:25:48 489

原创 论文解读:Generated Knowledge Prompting for Commonsense Reasoning

论文解读:Generated Knowledge Prompting for Commonsense Reasoning

2022-01-11 17:03:16 2195

原创 论文解读:知识图谱融入预训练模型

论文解读:知识图谱融入预训练模型

2022-01-10 18:49:05 1189

原创 兼容并“包”NLP评价指标:Robustness Gym框架

兼容并“包”NLP评价指标:Robustness Gym框架

2022-01-04 22:29:03 531

原创 知识增强的预训练语言模型系列之ERNIE:如何为预训练语言模型注入知识

知识增强的预训练语言模型系列之ERNIE:如何为预训练语言模型注入知识

2021-12-30 23:41:40 601

原创 预训练模型时代:告别finetune, 拥抱adapter

预训练模型时代:告别finetune, 拥抱adapter

2021-12-29 23:24:57 1150

原创 论文解读:知识增强的预训练模型简介

©NLP论文解读原创•作者| 杨健专栏系列概览该专栏主要介绍自然语言处理领域目前比较前沿的领域—知识增强的预训练语言模型。通过解读该主题具备代表性的论文以及对应的代码,为大家揭示当前最新的发展状况。为了能够和大家更好的分享自己的收获,笔者将遵循下面几个原则。1、理论讲解尽量深入浅出,通过举例子或者大白话讲解论文,而非仅针对原文翻译。2、针对论文中一些重要的术语,适时的做出解释。3、理论和实践相结合,除了理论讲解,还会加入部分重要代码讲解。并且分享个人认为重要...

2021-12-28 23:25:54 1743

原创 最新研究进展:关于机器翻译领域,这4个要点不得不关注

最新研究进展:关于机器翻译领域,这4个要点不得不关注

2021-12-27 22:53:52 384

原创 PRGC:一种新的联合关系抽取模型

人工智能论文解读精选 | PRGC:一种新的联合关系抽取模型

2021-12-26 19:38:50 2747 4

原创 BERT生成能力改进:分离对话生成和对话理解

BERT生成能力改进:分离对话生成和对话理解

2021-12-25 22:51:53 494

空空如也

空空如也

TA创建的收藏夹 TA关注的收藏夹

TA关注的人

提示
确定要删除当前文章?
取消 删除