NLP
文章平均质量分 88
FesianXu
腾讯-微信事业群-高级算法工程师, 百度-搜索策略部-前高级算法工程师。 主要从事多模态检索、视频检索、信息检索,大模型落地应用等领域工作。
展开
-
Transformer的mask id两三事
Transformer的mask id两三事 FesianXu 20210808 at Baidu Search Team前言在Transformer中有着诸多的id,比如token id,position id,segment id,mask id等等,本文简单纪录下笔者在使用mask id时候的一些问题。如有谬误请联系指出,本文遵守 CC 4.0 BY-SA 版权协议,转载请联系作者并注明出处,谢谢。∇\nabla∇ 联系方式:e-mail: FesianXu@gmail...原创 2021-08-09 09:16:43 · 908 阅读 · 0 评论 -
【论文极速看】ERNIE 3.0 通过用知识图谱加强的语言模型
∇ 联系方式:e-mail: FesianXu@gmail.comgithub: https://github.com/FesianXu知乎专栏: 计算机视觉/计算机图形理论与应用微信公众号:之前写过『清华ERNIE』 与 『百度ERNIE』 的对比,也着重介绍了下百度的ERNIE系列模型,主要是ERNIE 1.0 [1]和ERNIE 2.0 [2]。就笔者的读后感而言,百度的工作和学术界有着较大不同,其没有对网络模型本身进行结构上的大改动,而是着重于如何构造合理的预训练任务,以及如何更好原创 2021-07-06 23:18:44 · 1729 阅读 · 2 评论 -
【论文极速看】ERNIE-VIL 一种基于场景图解析的多模态表征方法
∇ 联系方式:e-mail: FesianXu@gmail.comgithub: https://github.com/FesianXu知乎专栏: 计算机视觉/计算机图形理论与应用微信公众号:ERNIE [1,2,3]是百度提出用于对文本进行建模的模型,为了对图文信息进行多模态建模,百度在后续还提出了ERNIE-VIL模型[4]。ERNIE-VIL模型的建模思路很直接,作者认为图片信息主要由以下几种类型,如Fig 1所示。分别是图片中有哪些物体(Objects), 图片的物体有哪些属性(Att原创 2021-04-29 20:22:33 · 986 阅读 · 1 评论 -
【论文极速看】 Linformer 线性复杂性的自注意力机制
∇ 联系方式:e-mail: FesianXu@gmail.comgithub: https://github.com/FesianXu知乎专栏: 计算机视觉/计算机图形理论与应用微信公众号:在Transformer [1]中作者提出了用自注意力取代CNN,RNN在序列建模中的作用,并且取得了显著的实验效果,对整个NLP,CV领域有着深远影响。然而自注意力机制的时间复杂度是O(n2)\mathcal{O}(n^2)O(n2)的,如式子(1)所示Attention(QWQ,KWK,VWV原创 2021-04-28 21:04:19 · 2063 阅读 · 0 评论 -
Transformer代码随记
Transformer代码随记 FesianXu 20210423 at Baidu search team前言最近在百度搞多模态搜索,Transformer [1]相关的模型用的多些,记录下Transformer阅读代码过程中的一些笔记,希望对大家有帮助。如有谬误请联系指出,本文遵守 CC 4.0 BY-SA 版权协议,转载请联系作者并注明出处,谢谢。∇ 联系方式:e-mail: FesianXu@gmail.comgithub: https://github.com/Fesia...原创 2021-04-25 20:13:16 · 735 阅读 · 0 评论 -
语义标签(Semantic label)与多模态模型的一些关系
语义标签(Semantic label)与多模态模型的一些关系 FesianXu 20210317 at Baidu intern前言语义标签指的是通过特殊方式使得样本的标签具有一定的语义信息,从而实现更好的泛化,是解开放集问题(open set)和zero-shot问题中的常见思路。如有谬误请联系指出,本文遵守 CC 4.0 BY-SA 版权协议,转载请联系作者并注明出处,谢谢。∇\nabla∇ 联系方式:e-mail: FesianXu@gmail.comgithub:...原创 2021-03-18 00:34:24 · 2057 阅读 · 0 评论 -
『清华ERNIE』 与 『百度ERNIE』 的爱恨情仇
『清华ERNIE』 与 『百度ERNIE』 的爱恨情仇FesianXu 20210219 at Baidu intern前言最近笔者在查看ERNIE论文的时候,发生了一件很乌龙的事情,本来笔者要查的是百度的ERNIE [2],但是没想到清华也有一个ERNIE [3],这俩论文的题目非常像,而且都开源了,所以笔者就对着清华ERNIE的论文在百度ERNIE的开源代码[4]里面找对应的code片段…也是极度无语了。不过后面发现了自己的傻X错误之后,重新把百度的ERNIE 1.0 [2]和 ERNIE.原创 2021-02-19 16:30:18 · 2095 阅读 · 1 评论 -
NLP中的一些术语积累
NLP中的一些术语积累FesianXu 20210218 at Baidu intern前言: 本文记录笔者在学习NLP过程中的一些术语笔记。实体(entity)与命名实体(named entity)这个概念其实来自于知识图谱(Knowledge Graph,KG)里面,笔者在阅读文献[1]的时候,有两个术语产生了一点困扰,即是entity与named entity,后面笔者查到了其含义[2],笔记于此。实体通常是一个很大的概念,一般指的是将某句话分解成若干个实体,比如:Bob Dyl.原创 2021-02-18 14:25:52 · 357 阅读 · 0 评论