2019.9.5 note

本文汇集了多个关于BERT及其在NLP中应用的研究,探讨了BERT如何在预训练中捕获语法和语义信息,以及如何通过结构探针对词汇表示进行分析。还介绍了BERT在多任务学习、知识蒸馏、语义理解、句向量表示、适应器模块等方面的改进和应用。此外,文章提到了RoBERTa、SenseBERT、Sentence-BERT等BERT的变体,并指出XLNET通过自注意力机制实现了双向上下文的理解。
摘要由CSDN通过智能技术生成

2019.9.5 note

A Structural Probe for Finding Syntax in Word Representations

  1. The probe identifies a linear transformation under which squared L2 distance encodes the distance between words in the parse tree, and one in which squared L2 norm encodes depth in the parse tree. Using this probe, we show that such transformations exist, providing evidence that entire syntax trees are embedded implicitly in deep models’ vector geometry.

This defines d ( x , y ) = f ( x ) T f ( y ) d(x, y)=f(x)^Tf(y) d(x,y)=f(x)Tf(y) and f ( x ) = A v x f(x)=Av_x f(x)=Avx for BERT embedding v v v. This finds that this d d d can learn the distances on parsing tr

评论 1
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值