中文分词改进与百度NLP比较

在介绍我自己的关键字提取之前先介绍一下这个中文处理的包,现在在中文处理里使用非常广泛,也真的效率很高使用便捷。有非常多的功能,也有关键字提取的功能,但是效率一般,不如它的分词功能使用的人多,那么我介绍一下在我的代码会用到的它的2个功能。
结巴分词分为三种模式:精确模式(默认)、全模式和搜索引擎模式,下面对这三种模式分别举例介绍:
精确模式
import jieba
s = u’我想和女朋友一起去北京故宫博物院参观和闲逛。’
1
2
cut = jieba.cut(s)

print ‘【Output】’
print cut
print ‘,’.join(cut)
1
2
3
4
5
【Output】
<generator object cut at 0x7f8dbc0efc30>
我,想,和,女朋友,一起,去,北京故宫博物院,参观,和,闲逛,。
1
2
3
可见分词结果返回的是一个生成器(这对大数据量数据的分词尤为重要)。

全模式
print ‘【Output】’
print ‘,’.join(jieba.cut(s,cut_all = True))
1
2
【Output】
我,想,和,女朋友,朋友,一起,去,北京,北京故宫,北京故宫博物院,故宫,故宫博物院,博物,博物院,参观,和,闲逛,
1
2
可见全模式就是把文本分成尽可能多的词。

搜索引擎模式
print ‘【Output】’
print ‘,’.join(jieba.cut_for_search(s))
1
2
【Output】
我,想,和,朋友,女朋友,一起,去,北京,故宫,博物,博物院,北京故宫博物院,参观,和,闲逛,。
1
2
获取词性
每个词都有其词性,比如名词、动词、代词等,结巴分词的结果也可以带上每个词的词性,要用到jieba.posseg,举例如下:

import jieba.posseg as psg
print ‘【Output】’
print [(x.word,x.flag) for x in psg.cut(s)]

输出:

‘’’
[(u’我’, u’r’), (u’想’, u’v’), (u’和’, u’c’), (u’女朋友’, u’n’), (u’一起’, u’m’),
(u’去’, u’v’), (u’北京故宫博物院’, u’ns’), (u’参观’, u’n’), (u’和’, u’c’), (u’闲逛’, u’v’), (u’。’, u’x’)]
‘’’
1
2
3
4
5
6
7
8
9
可以看到成功获取到每个词的词性,这对于我们对分词结果做进一步处理很有帮助,比如只想获取分词结果列表中的名词,那么就可以这样过滤:

print [(x.word,x.flag) for x in psg.cut(s) if x.flag.startswith(‘n’)]

输出:

‘’’
[(u’女朋友’, u’n’), (u’北京故宫博物院’, u’ns’), (u’参观’, u’n’)]
‘’’
1
2
3
4
5
6
至于词性的每个字母分别表示什么词性,jieba分词的结果可能有哪些词性,就要去查阅词性对照表了,本文结尾附了一份从网上搜到的词性对照表,想了解更详细的词性分类信息,可以到网上搜索”结巴分词词性对照”。

关键词提取
只要关键词提取准确,新闻推荐就不是什么难事了,在经过各方调查和各种资料的阅读,我发现要想得到非常准确的新闻关键字,即得到某词在文章中的关键程度,有两方面因素都需要考虑:
词本身(词长0.1,词性0.8,词频0.3)0.4
居间度0.6
tw = 0.4 # 词权重
vdw = 0.6 # 居间度权重
lenw = 0.1 # 词长权重
posw = 0.8 # 词性权重
tfw = 0.3 # tf词频权重
1
2
3
4
5

以上的小数为每一项因素在我的程序中所占的比例,仅为我个人的想法,可以依据实际情况改动。词长非常容易理解,词的长度。词性是根据jieba分词判断的词性,给出一个该词性在一篇文章中一般来讲的重要程度,比如名词等词性相对来讲会更重要一些,而连词介词则是重要度为0的需要尽量剔除的词。这里给出一份参考的词性重要度表。词频也是字面意思,在一篇文章中词的频率。
n 0.8
nr 0.8
nr1 0.8
nr2 0.8
nrj 0.8
nrf 0.8
ns 0.8
nsf 0.8
nt 0.8
nz 0.8
nl 0.6
ng 0.4
t 0.6
tg 0.4
s 0.3
f 0.2
v 0.5
vd 0.4
vn 0.6
vshi 0.0
vyou 0.0
vf 0.2
vx 0.3
vi 0.3
vl 0.4
vg 0.2
a 0.5
ad 0.3
an 0.6
ag 0.3
al 0.3
b 0.3
bl 0.4
z 0.4
r 0.1
rr 0.1
rz 0.1
rzt 0.1
rzs 0.1
rzv 0.1
ry 0.1
ryt 0.1
rys 0.1
ryv 0.1
rg 0.1
m 0.2
mq 0.2
q 0.1
qv 0.1
qt 0.2
d 0.2
p 0.1
pba 0.0
pbei 0.0
c 0.0
cc 0.3
u 0.1
uzhe 0.0
ule 0.0
uguo 0.0
ude1 0.0
ude2 0.0
ude3 0.0
usuo 0.0
udeng 0.0
uyy 0.0
udh 0.0
uls 0.0
uzhi 0.0
ulian 0.0
e 0.0
y 0.0
o 0.0
h 0.0
k 0.0
x 0.0
xx 0.0
xu 0.0
w 0.0
wkz 0.0
wky 0.0
wyz 0.0
wyy 0.0
wj 0.0
ww 0.0
wt 0.0
wd 0.0
wf 0.0
wn 0.0
wm 0.0
ws 0.0
wp 0.0
wb 0.0
wh 0.0
1
2
3
4
5
6
7
8
9
10
11
12
13
14
15
16
17
18
19
20
21
22
23
24
25
26
27
28
29
30
31
32
33
34
35
36
37
38
39
40
41
42
43
44
45
46
47
48
49
50
51
52
53
54
55
56
57
58
59
60
61
62
63
64
65
66
67
68
69
70
71
72
73
74
75
76
77
78
79
80
81
82
83
84
85
86
87
88
89
90
91
92
93
94
95
居间度是一个需要重点介绍的概念,需要一定离散数学的知识,我自己也不算完全理解透彻了它的意思,但是计算方法还是很好介绍清楚的。
居间度
居间度是在将相似度矩阵抽象成图之下进行计算的,所以首先需要介绍一下相似度矩阵。如果将词汇进行两两对比,那么不是所有词的词义差距都是一样大的,比如做和干就是意思非常相近的两个词,而中国和吃饭则完全不是一个意思,那这么多词怎么得到它们之间的相似度呢,可以使用这份将词表示为编码的词表,在这份词表中代码越相近,他们的意思也就越相近。

在这里插入图片描述

在这里插入图片描述
找到他们的代码计算出相似度之后,我们就需要这篇文章中每两个词汇之间相似度的二维表,然而这个表并不全是0,1表示的,为了大量简化计算,我把所有相似度>0.5的设为1,<0.5的设为0,从而将词汇相似度的二维表抽象成为了一个由顶点和边的图,其中每个顶点就是文章中的一个词,这里需要一点点离散数学的知识了。
def similar_matrix(self, string_data):
“”"
function: 构建语义相关度网络
:param string_data: 待分析的语句
:return: similar_matrix 语义相关度网络
“”"
word_tag_dict = self.word_tag_dictionary()
keys = word_tag_dict.keys()
candidate_words_dict, nwword = CandidateWords().get_candidate_list(string_data)
nwword_words = nwword.values() #order words
length = len(nwword_words)
similar_matrix = numpy.zeros(shape=(length, length))
word_list = list()
for word in nwword_words:
if word in keys:
word_list.append(word)
for i in range(length):
for j in range(length):
if (nwword_words[i] in word_list) and (nwword_words[j] in word_list):
similar_matrix[i][j] = self.similarity(i, j, nwword_words, word_tag_dict)
else:
similar_matrix[i][j] = 0.2
# self.draw_network(similar_matrix, nwword_words)
return similar_matrix

def similarity_network_edges(self, string_data):
    similar_matrix = self.similar_matrix(string_data)
    row_col = similar_matrix.shape
    for i in range(row_col[0]):
        for j in xrange(i+1, row_col[0]):
            if similar_matrix[i][j] > 0.5:
                self.E.append((i, j))
    return self.E

在这里插入图片描述
在这里插入图片描述
新闻推荐
新闻推荐是门大学问了,分为以下几种:

基于内容(相似度)的推荐

基于用户/物品相似度的协同过滤

热点新闻推荐(你看到的那些头条新闻)

基于模型的推荐(通过输入一些用户特征进入模型,产生推荐结果)

混合推荐(以上十八般兵器一起耍!)

这里只做基于内容相似度的推荐,我们依据刚才的关键词及他们的关键程度分,用公式
Similarity(A,B)=Σi∈mTFIDFA∗TFIDFBSimilarity(A,B)=Σi∈mTFIDFA∗TFIDFB
简而言之就是求和两篇文章的相似关键词的关键程度分的乘积

评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值