技术解读 | 基于fastText和RNN的语义消歧实战

消歧问题的基线可以借助贝叶斯、Lesk等简单算法来设计

1.问题的引入

在我们云脑科技最近的一个项目中,需要对文本中提取的实体进行消歧(WSD, Word Sense Disambiguation),即确定某个实体在当前上下文中是我们期望的一个意义。

比如,

美国电影《坏女孩》由Myriad Pictures Inc.于2013年出品。讲述雅蕾克丝,一个女同性恋,父母离异,母亲重新找了一个继父,却又早早自杀身亡;父亲也重新找了个继母,继母对她百般刁难。

其中坏女孩、继父、继母、同性恋都是候选的电影作品名。但结合上下文,如何去掉歧义候选,只保留坏女孩,这就是我们需要解决的消歧问题。

2.解决消歧问题的一般思路

2.1 基线算法

机器学习任务一般需要对效果有简单的基线设置,WSD的基线可以用Lesk算法确定。人类在类似WordNet的词汇释义标注语料上的共识大概75%-80%,这可以作为WSD任务的上限参考。

Lesk是一个经典的算法。它的主要思想是:在词典中,常常需要借助若干其它词汇来对一个词进行解释。因此针对一条语料,我们可以选取它与词典中词汇重叠最多的那条释义。如果词典中的解释太过简单,可以把已标注释义的例句也当做释义内容。

2.2 监督学习算法

监督学习算法一般涉及如下步骤:

a.确定词表释义表,eg: 目标词bass, 两个释义:乐器-贝斯、鱼类-鲈鱼;

b.获取训练语料:google、crawl;

c.特征提取:一般先设定一个窗口(window),只关心这个窗口内的词。常用的两种提取:窗口内每一个位置的词汇、相对位置、词性;以及忽略位置和词性的词袋表示,即词典内词的出现计数;

d.分类器选择:朴素贝叶斯、逻辑回归、SVM、KNN、神经网络。

2.3 半监督学习算法

如果对于目标问题没有足够的标注语料,如何启动呢?

一般可以从少量的手动标注启动,按照同一共现释义相同进行标注扩展,例如:bass的鲈鱼解释一般与fish共现;乐器贝斯解释一般与play共现。因此可以标注所有<fish, bass> 和 <play, bass>的语句。

还可以按照同一文章释义相同进行标注扩展,例如利用共现词标注了某个句子,那么可以确定这个文章中其他的目标词的同释义标注。

3.fastText和RNN的组合消歧方法

3.1 选型思路

在本文的应用场景下,我们对于词汇的候选释义集合是固定的。比如候选词坏女孩来说,我们并不关心它的实际解释,只关心它在当前语境中是否代表一个电影名。

因此,与上述一般化的消歧思路不同,我们可以先把问题转化成一个语境分类问题。fastText在这种近乎端到端的文本分类问题上有非常不错的效果,模型尺寸较小而且训练速度也很快。在fastText分类器对候选词的上下文进行领域分类后,基本能够排除掉大部分的非目标领域候选,比如示例语句中的继父/继母/同性恋等等。

但是在拿到最终的目标词提取结果后,发现还有一些电影语境中的其他歧义候选词。比如美国电影《坏女孩》这个例句,能够通过电影领域上下文分类,但是候选词中有电影,没错,电影也是一个影片的候选词。因此,我们还需要更精细化的消歧处理。因此,我们在此处引入了基于RNN的序列标注算法,在确定语境范围后,进一步在语境内标注合理的出现位置。

3.2 fastText语境分类

训练语料

我们的训练语料是来自一些公开网站的影视信息和资讯信息,利用中文标点进行了语句切分。由于我们的语料中绝大多数的作品名是由书名号扩起的,可以利用这一点将语句进一步标注为包含领域关键词的短句。

特征处理

为了简化处理,直接将原始语句做了bigram切分。此时我们去掉了语料中的书名号,因为语料的标注是用书名号这种强规则来标注的,因此模型很可能只学到书名号这个特征。并且在做中文bigram切分时,非中文的数字/英文单词也需要作为一个整体处理。

训练模型

利用官方的源码编译二进制工具进行训练,以下是训练调参过程中的一些小tips。

a.使用epoch参数来更好的拟合训练集;

b.使用wordGram参数,让fastText学习到连续的切分嵌入,弥补分词不足和语序的缺失,但是模型大小会飞速增长,我只用到了wordGram=3;

c.使用minCount参数对词表词频进行过滤,避免词表过于庞大。以我们的语料为例,过滤效果是词表从75w减少到7w,我选取的minCount=5;

d.使用quantize命令压缩最终的模型,尺寸会小很多,本例中是300m到7.5m;

e.使用test命令进行验证集验证时,会发现准确P和召回R是相等的,这是因为fastText把分类问题都当做多分类来处理,不会输出针对每个分类的PR,最终会用所有分类的PR进行某种平均。因此需要手动编写一个基于predict命令的验证过程;

f.注意语料的设计,起初只用了电影语料的作品句子和非作品句子,结果发现在普通文本上的表现并不好。因此又加入了一部分的社会新闻语料,让模型能有更好的泛化效果。

3.3 RNN序列标注

训练语料

语料部分还是采用了fastText相同的规则,利用书名号这种强特征标注了作品名部分。由于序列标注的分类不平衡问题非常明显,因此决定用RNN的序列标注作为fastText的一个补充,训练语料中没有添加不含作品名的语句。

特征处理

直接采用字符级别的切分,同时和fastText一样去掉了书名号,此处将连续的字母和英文单词都做了特殊标签的处理,可谓一切从简。同时将训练语料统一在长度30上,超长的截断,不足的补充[eos]。

训练模型

a.采用多层的双向RNN+softmax分类;

b.引入了dropout进行正则化处理;

c.针对序列标注的类不平衡问题,起初尝试了针对分类配置loss权重的方法,但是权重设置过于主观。最终我们使用了focal loss。Focal Loss的核心思想是样本因为分类难度的不同对损失函数的贡献是不同的。鼓励模型把难分类的分对,而不是进一步优化易分类的效果。

4.小结

最后回顾一下我们在这项任务中的若干做法。

1.消歧问题的基线可以借助贝叶斯、Lesk等简单算法来设计;

2.语料不足时可以采用一些半监督的方法来扩充标注样本,人为总结标注规则;

3.利用fastText做短句分类,确定候选词所在上下文是否是目标领域;

4.利用RNN在短句中做关键信息标注,过滤掉领域上下文中非关键信息的候选;

5.利用focal loss改善序列标注中的类别不均衡问题,提升模型的召回表现。


欢迎探讨。

作者介绍

Amow,云脑科技机器学习算法工程师,负责开发NLP方向的基础服务。

理论
2
  • 0
    点赞
  • 5
    收藏
    觉得还不错? 一键收藏
  • 1
    评论
FastText是Facebook开源的一个用于文本分类和文本表示的工具包,它支持多语言处理,并且速度非常快。其中的文本表示方法是基于词向量的,因此可以用来计算文本之间的相似度。 下面是基于FastText实现文本相似度计算的步骤: 1. 安装FastText 可以通过pip安装FastText,命令如下: ``` pip install fasttext ``` 2. 加载模型 使用FastText需要加载预训练好的模型,可以使用`load_model`方法加载模型文件,例如: ```python import fasttext model = fasttext.load_model('cc.en.300.bin') ``` 这里使用了一个预训练好的英文模型,可以从[FastText官网](https://fasttext.cc/docs/en/crawl-vectors.html)下载。 3. 计算文本向量 通过FastText可以将文本转换为向量表示,可以使用`get_sentence_vector`方法计算文本向量,例如: ```python vector = model.get_sentence_vector('I love natural language processing') ``` 4. 计算相似度 计算两个文本之间的相似度,可以计算它们的向量余弦相似度,公式如下: $$ similarity = \frac{A \cdot B}{\|A\| \|B\|} $$ 其中$A$和$B$分别表示两个文本的向量表示。可以使用`numpy`库计算向量余弦相似度,例如: ```python import numpy as np vector1 = model.get_sentence_vector('I love natural language processing') vector2 = model.get_sentence_vector('I am interested in NLP') similarity = np.dot(vector1, vector2) / (np.linalg.norm(vector1) * np.linalg.norm(vector2)) print(similarity) ``` 完整代码如下: ```python import fasttext import numpy as np # 加载预训练模型 model = fasttext.load_model('cc.en.300.bin') # 计算文本向量 vector1 = model.get_sentence_vector('I love natural language processing') vector2 = model.get_sentence_vector('I am interested in NLP') # 计算相似度 similarity = np.dot(vector1, vector2) / (np.linalg.norm(vector1) * np.linalg.norm(vector2)) print(similarity) ``` 输出结果为: ``` 0.7018464 ``` 表示两个文本的相似度为0.7。

“相关推荐”对你有帮助么?

  • 非常没帮助
  • 没帮助
  • 一般
  • 有帮助
  • 非常有帮助
提交
评论 1
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值