信息提取中分块或表达式

介绍

什么是表达式,用一组规则来进行信息表示与提取。

这个名字起的有点绕,本质来讲他是做下面这个事情的。

假设分词结果如下所示:

1
2
3
4
5
6
7
8
[
('现在', 'time'),
('社区', 'n'),
('在', 'p'),
('进行', 'v'),
('网格化', 'n'),
('管理', 'n')
]

表达式

演变1

如果从这句话中进行关键词提取,分词粒度太低,那么我们首先会想着聚合。

1
[('社区', 'n'), ('网格化', 'n'), ('管理', 'n')]

网格化管理更能体现出比管理更具体的含义,那么你会接着使用2阶的n-gram,那么网格化管理会提取出来。

演变2

现在社区也是2阶n-gram,他们应该聚合吗?显然是不应该的,那么我们认识到:
n-gram是必须的,但是配置出来的规则不止n-gram。

那么我们尝试添加进去词性特征。

伪代码如下:

1
2
if before_token.pos == 'n' and cur_token.pos == 'n':
print('那么就聚合')

演变3

假设到此我们都可以用一堆hardcode来解决了,如果我们允许自定义配置,那么上面的hardcode就要换一种方式来表达。

演变4

此方法自行实现。我们可以定义每个token的判断逻辑。

1
2
3
4
5
6
7
8
9
10
11
12
13
14
def token_match(token, element):
# !开头表示词性
if element.startswith('!'):
return token.pos == element[1:]
# @表示词
elif element.startswith('@'):
return token.word == element[1:]
raise # 自行实现其他的

# 每个表达式判断
for element in express:
for index,token in enumerate(tokens):
if token_match(token, element):
# 最终构成一个DAG

演变5

到这里为止,我们认为实现了一个可自定义配置的表达式,但是问题来了,上面这个准确来讲是实现了硬匹配的,只能一个token一个token的来写表达式规则,比如我想实现[‘!n’, ‘!n’, ‘!n’, ‘!n’]这种,那就要写4遍这个。而不是!n+这种。

那么自行实现正则表达式会是更优的方式。

那先转换下思路,有没有现成的实现方式或者相关术语,可以拿来参考。

分块(chunk)

根据Nature Language Processing with Python第七章Extracting Information from Text中介绍到分块概念。

我们将用于实体检测的基本技术是分块,它分割和标记多令牌序列,如下图所示。

那么由此可见,我们可以看到用于分块的正则表达式和n-gram方法。

例子1

1
2
3
4
5
6
7
8
9
10
11
>>> sentence = [('the', 'DT'), ('little', 'JJ'), ('yellow', 'JJ'), ('dog', 'NN'), ('barked', 'VBD'), ('at', 'IN'), ('the', 'DT'), ('cat', 'NN')]
>>> grammar = "NP: {<DT>?<JJ>*<NN>}"
>>> cp = nltk.RegexpParser(grammar)
>>> result = cp.parse(sentence)

>>> result.pretty_print()
S
_______________________|______________________________
| | NP NP
| | ________|_________________ _____|____
barked/VBD at/IN the/DT little/JJ yellow/JJ dog/NN the/DT cat/NN

由这个例子可见,grammer中:

  1. NP为自定义的名字,nonterminal,表示为这个grammer应该对应的label是什么。这个可自行参考constituency tree parser。
  2. {}表示一套表达式的范围,rule。
  3. <>对应token的表示。
  4. ?, *, +就对应正常的正则。

更多例子可参考

搜了些资料,貌似没有根据词特征来进行patten匹配的。
通过源码可看出的确是不支持词匹配的。

基于这个的应用,可看SIFRank_zh算法的应用

结论

如果需要其他特征,可以先词性匹配,后续加规则来实现。
自己实现一个更高级的😂😂😂。

参考资料

Nature Language Processing with Python

  • 0
    点赞
  • 0
    收藏
    觉得还不错? 一键收藏
  • 0
    评论
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值