SIFRank_zh与关键词提取

介绍

本文尝试从几个方面来介绍提取关键词所知的技术,以及关键词提取所遇到的问题,接着介绍SIFRank-zh算法,最后穿插下个人的理解与总结。

关键词提取技术

刚开始接触这个概念的时候,网上一大堆介绍TF-IDF和TextRank算法,这俩简直已经称为了关键词提取的baseline。
关于TF-IDF,的确在许多文档中已经作为了baseline来和其他技术相对比,是一种简单易行并且效果不差的无监督技术。
TextRank具体我没看,此处略过。

关键词提取步骤

  1. 候选词提取
  2. 排序

候选词提取所遇到的问题

那么,此处引入一个问题,什么叫关键词?换句话说,什么样的词我们认为是关键词?

比如一句话:从2021年11月1日起,南京各个社区将尝试采取网格化管理,增强人民群众安全。,不同分词器的结果如下:

  • lac的分词结果:

    1
    2
    3
    4
    5
    6
    7
    8
    9
    10
    11
    12
    13
    14
    15
    16
    17
    [('从', 'p'),
    ('2021年11月1', 'TIME'),
    ('日起', 'q'),
    (',', 'w'),
    ('南京', 'LOC'),
    ('各个', 'r'),
    ('社区', 'n'),
    ('将', 'd'),
    ('尝试', 'v'),
    ('采取', 'v'),
    ('网格化', 'vn'),
    ('管理', 'vn'),
    (',', 'w'),
    ('增强', 'v'),
    ('人民群众', 'n'),
    ('安全', 'an'),
    ('。', 'w')]
  • ltpV3版本的分词结果:

    1
    2
    3
    4
    ['从', '2021年', '11月', '1日', '起', ',',
    '南京', '各个', '社区', '将', '尝试', '采取',
    '网格化', '管理', ',', '增强', '人民', '群众', '安全', '。'
    ]

这里我想突出一个问题,目前市面所见的所有分词器都是采用细粒度分词,那这就导致一个最直接的问题,就是关键信息词被拆开了。
这句话本质想突出网格化管理这个词,但是在两个分词器中都将其分成了两个词。

你可以说NER可以解决这个问题哇,从技术角度本身来讲,这的确是可行的。比如时间短语,机构短语,地址短语。
你也可以说数据标注标准不同,比如msra或者ptb数据集。
你也可以说粗粒度分词会更容易产生歧义。比如白天鹅在湖中游等等。这条不太认同。
你也可以说粗粒度分词下如果想获取更细粒度分词则无法获得。这条我认为可有可无。

但是我想说的是,那能不能有一个分词器,从使用效果上来讲更贴切人直观感受,不需要关注底层分词和NER这两种技术的。

可惜没有!

之前我看腾讯开源了一个训练好的word2vec模型,在Simple Cases那里,简直看到了希望!!

当时就在想,怎么根据word2vec反推出一个分词?

过程就是分词和word2vec训练放到一个任务中,但是只保存分词的模型。

然后在脑里想分词实现技术有哪些,首先肯定排除掉最长距离或者最短距离分词,那么能想到的只有HMM和CRF。
不管HMM还是CRF,本质都是计算状态概率转移矩阵和发射概率矩阵,HMM多了个初始概率矩阵,这个还好。

但是想了半天,貌似都不太可行,为什么?

  1. 每个句子到底有多少种切分方式,就决定了有多少训练可能性,数据集无法确定。比如商品和服务,有['商品', '和', '服务']以及['商品', '和服', '务'],仅仅这个例子,就有两种可能性,如果一个句子过长的话甚者有很多中语料的话,就无法估算那个语料才是真正正确的那个。那么在无法估计正确语料这条路来讲,crf就不可行。
  2. 对于hmm来讲,我记得使用统计的方式来做,印象中记得有一阶词频,还有二阶词频。。。emmmm,哈哈,忘完了,不管怎么说,会形成一个基于词的有向无环图。每次分词在这个图上使用vertbi算法进行迭代获取最终分词效果。但是问题是,怎么估算这些参数并应用于分词上且将其应用到word2vec训练预料并产生最终的word2vec模型。

emmmmm,但是我觉得可以换条思路来实现,那就是用于辅助标注人员的方式来重标数据集,或者对标注人员说,我更倾向于使用粗粒度分词的。

额,说了这么些,感觉貌似又回到了起点。

但是是一劳永逸的一种方式。

候选词提取可参考的方式

上面介绍了这么多,本质来讲是想提取更粗粒度的,那么我们基于现有的条件下,可以借鉴的实现方式:

  1. 基于词性进行聚合。比如名词和名词聚合,动名词和名词聚合,以及一些自定义情况则进行聚合,如果聚合后在一个粗粒度分词词典中,那么权重应更高。
  2. 添加自定义词典。在适用于自己产品的方向上添加自定义词典,也是比较合适的实现方式。

排序

排序的本质是正确代表语句或文本的真实意图或者需要涵盖的方面点。从无监督方式出发的话,我们能够利用的特征:

  1. 位置信息
  2. 预训练模型
  3. 领域信息

SIFRank以及SIFRank+的实现

SIFRank的实现主要分为以下步骤:

  1. 初始化elmo,thunlp(添加自定义词典)
  2. 分词,停用词处理,提取候选关键词,通过正则表达
  3. 分句,按句号和长度16来分。
  4. 获取elmo每层的输出。
  5. 对每个token取elmo第一层的平均值,取代掉elmo最后一层。
  6. 将不同句中elmo的hidden_size进行concat到一个维度上。
  7. 给予不同词不同的权重,比如停用词为0,符号为0,以及处理oov情况。
  8. 获取整段话的每层平均向量。
  9. 获取候选词的每层平均向量。
  10. 获取每个候选词与整段话的余弦距离。排序
  11. 获取positional score。 (SIFRank+)

接下来会对其实现做更具体说明。

关于elmo和ELMoForManyLangs

ELMoForManyLangs,SIFRank_zh作者指出的关于:

1
哈工大的elmoformanylangs 0.0.3中有个较为明显的问题,当返回所有层Embeddings的时候代码写错了,当output_layer=-2时并不是返回所有层的向量,只是返回了倒数第二层的。问题讨论在这里#31

已经解决,故可以忽略。

测试代码以官方test.py为准。

初始化elmo,thunlp(添加自定义词典)

1
2
3
4
5
#download from https://github.com/HIT-SCIR/ELMoForManyLangs
model_file = r'../auxiliary_data/zhs.model/'
# 初始化elmo
ELMO = word_emb_elmo.WordEmbeddings(model_file)
SIF = sent_emb_sif.SentEmbeddings(ELMO, lamda=1.0)
1
2
3
4
5
6
7
8
9
10
11
12
13
14
15
16
class SentEmbeddings():

def __init__(self,
word_embeddor,
weightfile_pretrain='../auxiliary_data/dict.txt',
weightfile_finetune='../auxiliary_data/dict.txt',
weightpara_pretrain=2.7e-4,
weightpara_finetune=2.7e-4,
lamda=1.0,database="",embeddings_type="elmo"):

self.word2weight_pretrain = get_word_weight(weightfile_pretrain, weightpara_pretrain)
self.word2weight_finetune = get_word_weight(weightfile_finetune, weightpara_finetune)
self.word_embeddor = word_embeddor
self.lamda=lamda
self.database=database
self.embeddings_type=embeddings_type
1
2
3
4
5
6
7
8
9
10
11
12
13
14
15
16
17
18
19
20
21
22
23
24
25
26
27
28
29
def get_word_weight(weightfile="", weightpara=2.7e-4):
"""
Get the weight of words by word_fre/sum_fre_words
:param weightfile
:param weightpara
:return: word2weight[word]=weight : a dict of word weight
"""
if weightpara <= 0: # when the parameter makes no sense, use unweighted
weightpara = 1.0
word2weight = {}
word2fre = {}
with open(weightfile, encoding='UTF-8') as f:
lines = f.readlines()
# sum_num_words = 0
sum_fre_words = 0
for line in lines:
word_fre = line.split()
# sum_num_words += 1
if (len(word_fre) >= 2):
word2fre[word_fre[0]] = float(word_fre[1])
sum_fre_words += float(word_fre[1])
else:
print(line)
# 这地方效果:如果一个词出现的频率越高,那么它的权重就越低
# 可看: https://github.com/sunyilgdx/SIFRank_zh/issues/14
for key, value in word2fre.items():
word2weight[key] = weightpara / (weightpara + value / sum_fre_words)
# word2weight[key] = 1.0 #method of RVA
return word2weight

这地方主要干了初始化elmo和以jieba分词统计的词频为主进行获取词的权重。

  1. 分词使用thunlp,但是以jieba同级的词频为主,这地方不合适。
  2. 这样获取词的权重,也不太合适。是否可以使用tf-idf呢。

分词,停用词处理,提取候选关键词,通过正则表达

1
2
zh_model = thulac.thulac(model_path=r'../auxiliary_data/thulac.models/',user_dict=r'../auxiliary_data/user_dict.txt')
elmo_layers_weight = [0.0, 1.0, 0.0]
1
2
3
4
5
6
7
8
9
10
11
12
13
14
15
16
17
18
19
20
21
22
23
24
class InputTextObj:
"""Represent the input text in which we want to extract keyphrases"""

def __init__(self, zh_model, text=""):
"""
:param is_sectioned: If we want to section the text.
:param zh_model: the pipeline of Chinese tokenization and POS-tagger
:param considered_tags: The POSs we want to keep
"""
self.considered_tags = {'n', 'np', 'ns', 'ni', 'nz','a','d','i','j','x','g'}

self.tokens = []
self.tokens_tagged = []
# self.tokens = zh_model.cut(text)
word_pos = zh_model.cut(text)
self.tokens = [word_pos[0] for word_pos in word_pos]
self.tokens_tagged = [(word_pos[0],word_pos[1]) for word_pos in word_pos]
assert len(self.tokens) == len(self.tokens_tagged)
for i, token in enumerate(self.tokens): # 停用词处理
if token.lower() in stopword_dict:
self.tokens_tagged[i] = (token, "u")
if token == '-':
self.tokens_tagged[i] = (token, "-")
self.keyphrase_candidate = extractor.extract_candidates(self.tokens_tagged, zh_model)
1
2
3
4
5
6
7
8
9
10
11
12
13
14
15
16
17
18
19
20
21
22
23
24
25
26
GRAMMAR_zh = """  NP:
{<n.*|a|uw|i|j|x>*<n.*|uw|x>|<x|j><-><m|q>} # Adjective(s)(optional) + Noun(s)"""

def extract_candidates(tokens_tagged, no_subset=False):
"""
Based on part of speech return a list of candidate phrases
:param text_obj: Input text Representation see @InputTextObj
:param no_subset: if true won't put a candidate which is the subset of an other candidate
:return keyphrase_candidate: list of list of candidate phrases: [tuple(string,tuple(start_index,end_index))]
"""
np_parser = nltk.RegexpParser(GRAMMAR_zh) # Noun phrase parser
keyphrase_candidate = []
np_pos_tag_tokens = np_parser.parse(tokens_tagged)
count = 0
for token in np_pos_tag_tokens:
if (isinstance(token, nltk.tree.Tree) and token._label == "NP"):
np = ''.join(word for word, tag in token.leaves())
length = len(token.leaves())
start_end = (count, count + length)
count += length
keyphrase_candidate.append((np, start_end))

else:
count += 1

return keyphrase_candidate
  1. 分词
  2. 处理停用词和特殊符号词性
  3. 根据目标词性通过正则匹配获取候选词

阶段小结

到这里位置作者完成了对候选词的处理,还是回到最上面讲候选词获取那里的问题,如果有一个更合适的分词器。

  1. 那么这里我们就可以重新获取dict.txt。
  2. 不需要这么复杂的正则表达式来获取候选词。
  3. 接下来的获取候选词词向量那里也会更适合。

另外一个方面,关于正则匹配那:

  1. 我们可以不局限于词性,也可以根据词的信息来合并,比如’和’,‘的’等字。
  2. 针对特定词进行对分词器做调整。

分句,按句号和长度16来分

1
2
3
4
5
6
7
8
9
10
11
12
13
14
15
16
17
18
19
20
21
22
def get_sent_segmented(tokens):
"""
按照.和。进行分段
但是这个分法很个性,只有大于16才分割,否则不分
:param tokens:
:return:
"""
min_seq_len = 16
sents_sectioned = []
if (len(tokens) <= min_seq_len):
sents_sectioned.append(tokens)
else:
position = 0
for i, token in enumerate(tokens):
if (token == '.' or token =='。'):
if (i - position >= min_seq_len):
sents_sectioned.append(tokens[position:i + 1])
position = i + 1
if (len(tokens[position:]) > 0):
sents_sectioned.append(tokens[position:])

return sents_sectioned

但是想不明白的是,干嘛不直接用一个更成熟的分句工具呢,比如ltp和hanlp中都有现成的。

这一步和获取elmo每层输出作者将其称为文档分割(document segmentation,DS),其作用如下:

1
DS:通过将文档分为较短且完整的句子(如16个词左右),并行计算来加速ELMo;

获取elmo每层的输出

注意,下面将不区分elmo和ELMoForManyLangs,如果不做说明,则统一为ELMoForManyLangs。

1
2
3
4
5
6
7
8
9
10
11
def get_tokenized_words_embeddings(self, sents_tokened):
"""
@see EmbeddingDistributor
:param tokenized_sents: list of tokenized words string (sentences/phrases)
:return: ndarray with shape (len(sents), dimension of embeddings)
"""
max_len = max([len(sent) for sent in sents_tokened])
elmo_embedding = self.elmo.sents2elmo(sents_tokened,output_layer=-2)
elmo_embedding = [np.pad(emb, pad_width=((0,0),(0,max_len-emb.shape[1]),(0,0)) , mode='constant') for emb in elmo_embedding]
elmo_embedding = torch.from_numpy(np.array(elmo_embedding))
return elmo_embedding

elmo输出为三层结构,这个可以在ELMoForManyLangs中看到,

1
2
3
4
5
6
output_layer: the target layer to output.
0 for the word encoder
1 for the first LSTM hidden layer
2 for the second LSTM hidden layer
-1 for an average of 3 layers. (default)
-2 for all 3 layers

比如sents_tokened长度为[44, 110],输出结果elmo_embedding为torch.Size([2, 3, 110, 1024])

对每个token取elmo第一层的平均值,取代掉elmo最后一层

1
2
3
4
5
6
7
8
9
10
11
12
13
14
15
16
17
18
19
20
21
22
23
24
25
26
27
28
29
30
31
32
33
34
35
36
def context_embeddings_alignment(elmo_embeddings, tokens_segmented):

"""
Embeddings Alignment
:param elmo_embeddings: The embeddings from elmo
:param tokens_segmented: The list of tokens list
<class 'list'>: [['今', '天', '天气', '真', '好', '啊'],['潮水', '退', '了', '就', '知道', '谁', '没', '穿', '裤子']]
:return:
"""
token_emb_map = {}
n = 0
for i in range(0, len(tokens_segmented)):
# 一词多义,将相同词的emb append到一起
for j, token in enumerate(tokens_segmented[i]):
# 获取第一层的embedding, 1 for the first LSTM hidden layer
emb = elmo_embeddings[i, 1, j, :]
if token not in token_emb_map:
token_emb_map[token] = [emb]
else:
token_emb_map[token].append(emb)
n += 1
# 求每个token的平均值
anchor_emb_map = {}
for token, emb_list in token_emb_map.items():
average_emb = emb_list[0]
for j in range(1, len(emb_list)):
average_emb += emb_list[j]
average_emb /= float(len(emb_list))
anchor_emb_map[token] = average_emb
# 替换掉elmo最后一层的词对应的词向量
for i in range(0, elmo_embeddings.shape[0]):
for j, token in enumerate(tokens_segmented[i]):
emb = anchor_emb_map[token]
elmo_embeddings[i, 2, j, :] = emb

return elmo_embeddings

这地方做了三件事情:

  1. 获取每个词对应的词向量,将相同词的向量append到一起。
  2. 求每个词的平均词向量
  3. 替换掉elmo最后一层的词对应的词向量

这一步作者叫做词向量对齐(embeddings alignment,EA),其作用如下:

1
EA:同时利用锚点词向量对不同句子中的相同词的词向量进行对齐,来稳定同一词在相同语境下的词向量表示。

将不同句中elmo的hidden_size进行concat到一个维度上

1
2
3
4
5
6
def splice_embeddings(elmo_embeddings,tokens_segmented):
new_elmo_embeddings = elmo_embeddings[0:1, :, 0:len(tokens_segmented[0]), :]
for i in range(1, len(tokens_segmented)):
emb = elmo_embeddings[i:i + 1, :, 0:len(tokens_segmented[i]), :]
new_elmo_embeddings = torch.cat((new_elmo_embeddings, emb), 2)
return new_elmo_embeddings

比如tokens_segmented长度为[44, 110]elmo_embeddingsshape为:torch.Size([2, 3, 110, 1024])
那么new_elmo_embeddings的shape为:torch.Size([1, 3, 154, 1024])

给予不同词不同的权重,比如停用词为0,符号为0,以及处理oov情况

1
2
3
4
5
6
7
8
9
10
11
12
13
14
15
def get_weight_list(word2weight_pretrain, word2weight_finetune, tokenized_sents, lamda, database=""):
weight_list = []
for word in tokenized_sents:
word = word.lower()

if(database==""):
weight_pretrain = get_oov_weight(tokenized_sents, word2weight_pretrain, word, method="max_weight")
weight=weight_pretrain
else:
weight_pretrain = get_oov_weight(tokenized_sents, word2weight_pretrain, word, method="max_weight")
weight_finetune = get_oov_weight(tokenized_sents, word2weight_finetune, word, method="max_weight")
weight = lamda * weight_pretrain + (1.0 - lamda) * weight_finetune
weight_list.append(weight)

return weight_list
1
2
3
4
5
6
7
8
9
10
11
12
13
14
15
16
17
18
19
20
21
22
23
def get_oov_weight(tokenized_sents,word2weight,word,method="max_weight"):
try:
word=wnl.lemmatize(word)
except:
nltk.download('wordnet')
nltk.download('omw-1.4')

if(word in word2weight):#
return word2weight[word]

if(word in stop_words):
return 0.0

if(word in english_punctuations or word in chinese_punctuations):#The oov_word is a punctuation
return 0.0

if(method=="max_weight"):#Return the max weight of word in the tokenized_sents
max=0.0
for w in tokenized_sents:
if(w in word2weight and word2weight[w]>max):
max=word2weight[w]
return max
return 0.0

就是根据dict.txt计算出每个词的权重,所获取到的.

获取整段话的每层平均向量

1
2
3
4
5
6
7
8
9
10
11
12
13
14
15
16
17
18
19
def get_weighted_average(tokenized_sents, sents_tokened_tagged,weight_list, embeddings_list, embeddings_type="elmo"):
# weight_list=get_normalized_weight(weight_list)
assert len(tokenized_sents) == len(weight_list)
num_words = len(tokenized_sents)
e_test_list=[]
if (embeddings_type == "elmo" or embeddings_type == "elmo_sectioned"):
# assert num_words == embeddings_list.shape[1]
sum = torch.zeros((3, 1024))
for i in range(0, 3):
for j in range(0, num_words):
if(sents_tokened_tagged[j][1] in considered_tags):
e_test=embeddings_list[i][j]
e_test_list.append(e_test)
sum[i] += e_test * weight_list[j]

sum[i] = sum[i] / float(num_words)
return sum
else:
print('其他的忽略。')
  1. 初始化一个shape为(3, 1024)的矩阵,因为elmo为3层,1024为输出的hidden_size。
  2. 和上面获取不同词权重结合,并且只计算考虑的词性。比如(n,np,ns)等。
  3. 将elmo每层的计算的平均结果保存。

注意这里哦,这里有两点需要注意的:

  1. elmo第三层不是原来第三层的结果了,是作者称为词向量对齐的给替代了。
  2. 他计算的是只考虑的词性,而不是所有词的平均向量。

获取候选词的每层平均向量

1
2
3
4
5
6
7
8
9
10
11
12
13
14
15
16
17
18
def get_candidate_weighted_average(tokenized_sents, weight_list, embeddings_list, start,end,embeddings_type="elmo"):
"""获取候选词在每一层的平均向量"""
# weight_list=get_normalized_weight(weight_list)
assert len(tokenized_sents) == len(weight_list)
# num_words = len(tokenized_sents)
num_words =end - start
e_test_list=[]
if (embeddings_type == "elmo" or embeddings_type == "elmo_sectioned"):
# assert num_words == embeddings_list.shape[1]
sum = torch.zeros((3, 1024))
for i in range(0, 3):
for j in range(start, end):
e_test=embeddings_list[i][j]
e_test_list.append(e_test)
sum[i] += e_test * weight_list[j]
sum[i] = sum[i] / float(num_words)

return sum

整个计算过程和上一步基本一致。

阶段小结

到这一步作者完成了对文档向量的计算,以及候选词向量的计算。

不难看出,第一还是词权重的问题。第二是文档向量只考虑了目标词性。第三是候选词一般是复合词,那么在计算复合词权重的时候是词权重 * 词向量求平均的方式。

那如果我们有一个更合适的分词器,训练一个自己的词权重文件,以及训练一个更适合自己的elmo模型,那是否可以讲整套技术上是更为完整的。

获取每个候选词与整段话的余弦距离。排序

1
2
3
4
5
6
7
8
9
10
11

def get_dist_cosine(emb1, emb2, sent_emb_method="elmo",elmo_layers_weight=[0.0,1.0,0.0]):
sum = 0.0
assert emb1.shape == emb2.shape
if(sent_emb_method=="elmo"):

for i in range(0, 3):
a = emb1[i]
b = emb2[i]
sum += cos_sim(a, b) * elmo_layers_weight[i]
return sum

计算每个候选词与整段话的余弦距离,但是这里默认每层的权重是[0.0,1.0,0.0],那这就导致作者声称的词向量对齐(embeddings alignment,EA)技术并没有用到~

1
2
3
4
5
6
7
8
9
10
11
12
13
14
15
16
17
18
19
20
21
22
23
24
25
26
27
28
29
30
31
32
33
34
35
36
37
38
39
40
41

def get_all_dist(candidate_embeddings_list, text_obj, dist_list):
'''
:param candidate_embeddings_list:
:param text_obj:
:param dist_list:
:return: dist_all
'''

dist_all={}
for i, emb in enumerate(candidate_embeddings_list):
phrase = text_obj.keyphrase_candidate[i][0]
phrase = phrase.lower()
phrase = wnl.lemmatize(phrase) # 词形还原
if(phrase in dist_all):
#store the No. and distance
dist_all[phrase].append(dist_list[i])
else:
dist_all[phrase]=[]
dist_all[phrase].append(dist_list[i])
return dist_all

def get_final_dist(dist_all, method="average"):
'''
:param dist_all:
:param method: "average"
:return:
'''

final_dist={}

if(method=="average"):

for phrase, dist_list in dist_all.items():
sum_dist = 0.0
for dist in dist_list:
sum_dist += dist
if (phrase in stop_words):
sum_dist = 0.0
final_dist[phrase] = sum_dist/float(len(dist_list))
return final_dist

产生的结果比如:{“技术”: [0.8432613915568461, 0.8243992563094531, 0.8120348604031394]},那么又做了一次平均。

阶段总结

  1. 如果我们有一个更合适的分词器,训练一个自己的词权重文件,以及训练一个更适合自己的elmo模型,那是否可以讲整套技术上是更为完整的。
  2. 计算候选词和整段的余弦距离时,其本质是否可以理解成是候选词和只考虑的词性组成的能代表整段文本向量进行排序呢。
  3. 作者声称的词向量对齐(embeddings alignment,EA)技术默认没有用到。

到这里作者完成了SIFRank_zh算法,的确是受限于目前的成果,整体流程也是具备参考价值的。

突出的问题,到这里为止,并没有利用到位置信息特征,比如行首或者行尾可能更具备代表含义。那么作者在此基础上,提供了SIFRank+算法。

获取positional score。 (SIFRank+)

1
2
3
4
5
6
7
8
9
10
11
12
13
14
15
16
17
18
19
20
21
22
23
24

def get_position_score(keyphrase_candidate_list, position_bias):
length = len(keyphrase_candidate_list)
position_score ={}
for i,kc in enumerate(keyphrase_candidate_list):
np = kc[0]
p = kc[1][0]
np = np.lower()
np = wnl.lemmatize(np)
if np in position_score:

position_score[np] += 0.0
else:
position_score[np] = 1/(float(i)+1+position_bias)
score_list=[]
for np,score in position_score.items():
score_list.append(score)
score_list = softmax(score_list)

i=0
for np, score in position_score.items():
position_score[np] = score_list[i]
i+=1
return position_score

我原本以为作者会用到词在原文中的索引位置,结果是候选词之间的索引位置。emmmm,但反过来想这其实也不正是原文中的相对索引位置嘛。
作者这里用到了两个技术点让我觉得很nice,一个是wnl.lemmatize,其作用是词性还原的,对于英文来说有用。还有一个是softmax,是用于归一化的。都能看出作者的扎实底子。

总结与思考

从作者这地方可以看出,整套流程是提取复合词的候选词,然后使用elmo计算候选词和以只考虑的目标词性所组成的句向量进行余弦计算其排序。

可提升点

在不改变整体流程和技术的方式上

  1. 如果使用thunlp,那么就训练一个以thunlp为结果的dict.txt,但是也可以训练一个tf-idf,个人觉得使用后者来表示词权重是更合适。
  2. 不局限于现有的正则表达,可以在分词的基础上增添自己的理解,另外可以训练自己ner。
  3. elmo越深其代表的含义更复杂,比如第一层可能代表词向量,第二层到第三层可能代表语义,句法等。作者把第三层替换掉,但是并没有使用,以及第一层,那么是否可以给予不同权重,但是这又属于超参问题,另外效果怎么样也不敢保证。
  4. 位置信息。根据业务来,有的业务有title和content,那么title可给予更高的权重。

参考资料

ELMoForManyLangsSIFRank_zh

评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值