谁说发 paper 一定要追快打新?2021年,研究 word2vec 也能中顶会!

495e5f36405b151d20b7d208107b0467.png

文 | jxyxiangyu

c78146c8d19a75315405ca25807bf34e.png前言8c45ba855717c1e0f5d5c8cee0b231e9.png

“小夕,小夕,你关注的任务sota又被刷新了!”

“什么?!”

还在跑实验的小夕默默流下了辛酸泪

不得不说nlp领域的发展真的太快了,炼丹师们不光要时刻关注前沿热点,还要快速做出实验,高强度堪比996:导师,臣妾真的做不到啊(っ╥╯﹏╰╥c)

正巧,小编我最近看到一篇研究词向量 word2vec 的论文,中了今年的EMNLP。What?!依稀记得头一次听说word2vec还在三年前。这么古老的东西还有人在研究吗?现在不都是XX-BERT、XX-transformer的时代了吗?

今天让我们一起来看看,到底是咋回事。

论文标题:
Analyzing the Surprising Variability in Word Embedding Stability Across Languages

论文链接:
https://arxiv.org/abs/2004.14876

715952a296d1fe1915897d3deff468b1.png词向量稳定性2bef188df6ff6429c2c378f68c3e5372.png

在介绍论文之前,先让我们来了解下词向量的稳定性。词向量的稳定性指的是一个词在不同的向量空间中的最近邻的重叠程度,常用来衡量由数据集、算法和词的属性特征的变化引起的词向量的变化。

这时候一定有小伙伴要问了,都1202年了,还有研究静态词向量的必要吗?No,no,no,如果这么想,格局就小了,我们常用的BERT、GPT这些模型都是建立在大规模语料上预训练得到的,如果面对的是小语种,没有像汉语、英语这么丰富的语料库,是很难喂饱预训练语言模型的,另外,为了某些小语种专门花费大量的资源训练预训练模型,从工业的角度来看,成本也是非常高的。这时,自然而然就会想到利用上下文无关的静态词向量来解决这类问题。

2793721b0ad6de7f9bded3dc7142bed2.png

稳定性的计算

文章研究的是在多个不同的语言中的词向量稳定性的变化,首先提出了稳定性的计算方式。给定两个向量空间集合,,那么两个向量空间的组合可以表示成,其中,,,对于某个词在向量空间,的稳定性可以用在这两个空间中最近的10个邻居的重叠百分比来表示,而在和这两个集合中,任意两个向量空间的组合下的稳定性均值,就被定义为词在这两个向量空间集合的稳定性。

举个栗子,下面的图展示的是词“rock”在三个向量空间下最近的10个邻居词,粗体表示向量空间重叠的词,可以看到 和 有6个邻居是重叠的, 、 和 、分别有7个词重叠,那么词“rock”在这三个向量空间的稳定性就是这三个值的均值(0.667)。ce291b3a50180c998fa72cda3eb758ca.png

65b56eff15f1e6374e62d500adc6bb5a.png实验1078d00b425bb43934d7c40309ff70f0.png

数据集

作者采用的是Wikipedia和Bible两个数据集,其中,Wikipedia包含40种语言,Bible包含97种语言,以及世界语言结构图谱(World Atlas of Language Structures,WALS),包含了近两千种语言属性知识。

数据集下采样

为减小不同语言数据量对词向量稳定性的影响,论文对原始的数据集做了下采样处理,具体方法是对数据集不重复地下采样(downsampling without replacement)。

为研究不同的下采样方法对稳定性的影响,用作者的话来说,希望通过下采样得到跨语言且有可比性的稳定性结果。为此,作者专门对比了可重复采样和不可重复采样两种下采样方法对稳定性的影响。

983f36740972225963c8e5b9764d89ec.png5b9a979d9db25a1826a67a2eb394f99d.png

可以看到可重复采样的方法导致下采样数据集无论采样覆盖比例如何,稳定性基本趋于一致,没有区分度,而不可重复采样的方法得到的数据集有较为明显的稳定性区分,这也是作者选择不重复下采样方法的原因。

数据集上的稳定性

作者针对Wikipedia和Bible两个数据集重叠的26种语言,研究了不同语言不同词向量生成算法数据对词向量稳定性的影响,总共三种情况:

  1. 由五个下采样的数据集训练得到的GloVe词向量的稳定性

  2. 由五个下采样的数据集训练得到的word2ve词向量的稳定性

  3. 由一个下采样的数据集随机五次训练得到的word2ve词向量的稳定性

由于Bible数据集过小,因此,只对Bible数据集研究了情况3下稳定性的分布e4ca464842a2b65584c8dc9966da38a6.png

可以看到在稳定性25%~75%之间,稳定性分布和变化较为平缓,低稳定性和高稳定性的词数量变化明显。

实验结果也表明在相同的训练数据下,不同的训练算法得到的词向量稳定性分布和变化趋于一致,相比而言,训练语料的不同对稳定性有较大的影响。因此,在对比不同语言下的词向量稳定性时,应该减小语料的内容对稳定性的影响。

为了研究同一数据集的不同上下文对研究不同语言间稳定性的影响程度,作者分别选择了圣经在德语和法语的多个不同译本,在一个下采样数据集上用五个不同的随机数种子训练生成五个word2vec词向量,并取均值作为该译本下的词向量稳定性。可以看到除个别译文外,不同译本之间的稳定性趋势基本一致,基本可以忽略相同语义的不同上下文对词向量稳定性的影响。

1f755a3abf40524909192c4097c9f1d0.png
▲不同bible译本的稳定性分布(德语)
8440940a4fa77d0f49149a2c9b0c56d3.png
▲不同bible译本的稳定性分布(法语)

回归模型

前述的实验对比了多个语言下的稳定性分布与走势,下面作者用岭回预测特定语言下的所有词的平均稳定性的方式,研究语言属性本身对词向量稳定性的影响因素。

模型的输入是特定语言的语言学特征(属性),输出是稳定性的均值。在讲特征输入模型前,作者做了相应的数据预处理,包括过滤出现频次较低的特征和属性(WALS)以及属性较少的语言,特征分组等,这里就不详细说明了。

评价指标

作者用了两种方式来评估模型:留一法交叉验证的绝对误差。选择拟合效果较好的模型,通过权重的大小来确定特征(或属性)对稳定性的贡献度程度。

实验结论

作者选择的模型达到了的和的留一法交叉验证的绝对误差,足以证明模型拟合效果非常好,相应的权重也可以表示属性对稳定性的贡献程度。下面是岭回归模型拟合后得到的属性对稳定性的贡献度权重和对特征分组的平均权重。相应地,作者还对某些属性特征做了详细的研究分析,这里不再赘述。57a03477b2f1f2aa805a0a66fc247375.png3eb9a8d0d64dc435ac20864afa5fac16.png

7bb918bcba0ce28b5debb519c2671d0c.png小结154d6b61a6e95abe33aed40af983cb4e.png

与常见的在某个任务上提模型、刷sota不同,这篇论文着眼于词向量在不同语言之间的差异的研究,本质上更像是数据分析。文章从数据采样方式入手,分别研究了数据集、训练算法对不同语言的稳定性的分布和走势的影响,并使用岭回归模型拟合了语言的属性特征对稳定性的贡献程度,分析不同属性特征对稳定性的影响。相比提出一个新的模型刷sota而言,可复现性和解释性更高,对词向量的应用有不小的贡献。

当然,这篇文章研究的是经典的静态词向量,和主流的transformer架构相比,确实显得有点“out”,但文章投了七次才中,不也证明了只要是金子都会发光吗?小编认为,谁说nlp一定要追快打新,只要是真正有益于nlp领域发展的研究工作,都值得发表,都值得中。(无卡党和少卡党狂喜bushi)

77946122931d2d4e66df0c1674ba1cb3.png
▲狂喜

1d36a5aab5a67de4e1330cc5487af9d4.png后台回复关键词【入群

加入卖萌屋NLP/IR/Rec与求职讨论群

后台回复关键词【顶会

获取ACL、CIKM等各大顶会论文集!

f6c594f2c3cda7780163236feab7803d.gif
  • 1
    点赞
  • 1
    收藏
    觉得还不错? 一键收藏
  • 0
    评论
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值