9月6日论文复写
Sentence-State LSTM for Text Representation
meeting of the association for computational linguistics (ACL18)上的一篇文章。
客观事实:
双向链表在文本表示中是一个非常强大的工具。
神经网络方法也成为了NLP中的主流方法
问题:
由于其顺序性(sequential nature),受到了很多限制
引言中提出了其限制:
1、固有的顺序性(?这里需要去了解双向LSTM)赋予了相同句子中的非平行计算,可能会导致计算瓶颈
2、local n-gram,是非常有用的上下文信息来源,但是没有被明确建模
3、捕捉长距离的依赖关系能力相对较弱,在编码较长的句子时性能较低
4、双向LSTM,循环步骤要随着句子的大小而增加
提出解决方法:
用于编码文本的替代性 LSTM 结构,句子状态的LSTM(S-LSTM)。可以在3-6次循环后给出有效的句子编码。替代的神经网络结构
方法描述:
1、由每个词的平行状态组成
2、递归步骤被用来同时进行单词之间的局部和全局信息交换,而不是对单词序列的增量阅读
3、这种句子级的状态向量可以与每个词交换非本地信息
4、这种状态向量还可以作为全局的句子级表示用在分类任务中
主要思想:
在每个循环步骤对所有单词的隐藏状态进行建模,而不是一次一个单词。并将整个句子看做一个单一的状态(single state),由每个词和一个整体的句子级状态组成。状态通过相互之间的信息交换而更新
结果:
与多种LSTM模型进行对比,时间短、并且Acc较高。16个数据集中12个数据集成绩比其他两个算法好,在减少了时间的基础上获得了更高的Acc。
数据集:
16个数据集。
小结:
1、提出的对比方法是97年提出的双向LSTM,这种方法在15年之后得到了广泛的应用。方法是比较老的,但是大规模应用的时间是最近五年
2、通过文章看到了那篇非常厉害的Attention is all you need,也需要去看一下Attention机制相关的总结。
3、源码开放,https://github.com/leuchine/S-LSTM
4、可以通过这篇文章延伸到很多与LSTM相关的文本表示算法,文章偏向于算法类。
5、作者是否优化到了一个最优的地步,是否留下了其他方向的优化可能性。
Learning Structured Text Representations
文章发表在Transactions of ACL(2018)上,
关键词中文本表示
文档建模是NLP中的一项基本任务,对于各种下游应用都有着重大的作用,最近的研究表明通过纳入结构性知识可以获得更好的文档表示。
问题
学习结构感知的文档表示,但是不需要使用话语分析器或者格外的注释。文章灵感来自于赋予神经网络结构性偏差
提出解决方法
提出了一个可以在自动诱导丰富的结构依赖性的同时进行对文档编码的模型
具体工作
1、将一个可微分的非投影解析算法嵌入到一个神经模型中
2、使用Attention机制来纳入结构性偏差
结果
1、在文档建模任务上取得了最先进的结果
2、同时诱导出了可相互解释并且有意义的中间结构
小结
1、源码公开:https://github.com/nlpyang/structured
LayoutLM: Pre-training of Text and Layout forDocument Image Understanding
ACM SIGKDD 2020的一篇文章
关键词:pre-trained models;document mage understanding
客观事实:
1、预训练技术广泛的应用,并且在各种NLP任务中得到陈工的验证
问题
预训练技术只关注文本层面的操作,而忽略了文档布局以及风格信息。
提出解决方法
1、提出LayoutLM来联合建模扫描文档图像中的文本和布局信息之间的相互作用。
2、利用图像特征将文字的视觉信息纳入到LayoutLM中
具体工作
结果
1、第一次在单一框架中联合学习文字以及文档的布局
2、用于文档级与训练后,在几个下游任务中国呢取得了最先进的结果
小结
1、代码开源:https://aka.ms/layoutlm
2、文中有提到可用于企业财报数据等领域