NLP(三十一)短语的语序问题

  所谓的短语的语序问题,即给定一个打乱顺序的短语,我们要按照语义信息将其重新组合,新的语序通顺的短语。
  举个简单例子,比如我们在识别验证码中的文字的时候,识别出来的文字分别为“哲”,“思”,“学”,“想”,那么重合调整语序后形成的短语应该为“哲学思想”。
  这样的问题也会经常出现,除了验证码识别,还有语音识别等。解决这类的语序问题,我们通常会用到统计方面的语言模型(Language Model,LM),常见的有N-gram问题等。
  下面将讲述n-gram问题的解决办法。

原理篇

  N-gram模型是一种语言模型,语言模型是一个基于概率的判别模型,它的输入是一句话(单词的顺序序列),输出是这句话的概率,即这些单词的联合概率(joint probability)。
  假设一个句子由n个词组成: S = ( w 1 , w 2 , . . . , w n − 1 , w n ) S=(w_{1}, w_{2}, ...,w_{n-1}, w_{n}) S=(w1,w2,...,wn1,wn),如何衡量这些词的联合概率呢?我们不妨假设每一个词语 w i w_{i} wi都依赖于前 i − 1 i-1 i1个词语的影响,则联合概率如下:

p ( S ) = p ( w 1 w 2 . . . w n − 1 w n ) = p ( w 1 ) p ( w 2 ∣ w 1 ) . . . p ( w n ∣ w 1 w 2 . . . w n − 1 ) p(S)=p(w_{1}w_{2}...w_{n-1}w_{n})=p(w_{1})p(w_{2}|w_{1})...p(w_{n}|w_{1}w_{2}...w_{n-1}) p(S)=p(w1w2...wn1wn)=p(w1)p(w2w1)...p(wnw1w2...wn1)

上述的假设是合情合理的,但实际我们在计算的过程中,会发现参数空间过大和数据稀疏等问题,尤其是 i i i值越大,前 i − 1 i-1 i1个的组合情况越少,甚至为0。
  为了避免上述问题,我们需要马尔科夫假设,即一个词的出现仅与它之前的N个词有关。如果一个词的出现仅依赖于前一个词,那么为Bi-gram的情形(N=2),公式如下:

p ( S ) = p ( w 1 w 2 . . . w n − 1 w n ) = p ( w 1 ) p ( w 2 ∣ w 1 ) . . . p ( w n ∣ w n − 1 ) p(S)=p(w_{1}w_{2}...w_{n-1}w_{n})=p(w_{1})p(w_{2}|w_{1})...p(w_{n}|w_{n-1}) p(S)=p(w1w2...wn1wn)=p(w1)p(w2w1)...p(wnwn1)

如果一个词的出现仅依赖于前两个词,那么为Tri-gram的情形(N=3),公式如下:

p ( S ) = p ( w 1 w 2 . . . w n − 1 w n ) = p ( w 1 ) p ( w 2 ∣ w 1 ) p ( w 3 ∣ w 2 w 1 ) . . . p ( w n ∣ w n − 1 w n − 2 ) p(S)=p(w_{1}w_{2}...w_{n-1}w_{n})=p(w_{1})p(w_{2}|w_{1})p(w_{3}|w_{2}w_{1})...p(w_{n}|w_{n-1}w_{n-2}) p(S)=p(w1w2...wn1wn)=p(w1)p(w2w1)p(w3w2w1)...p(wnwn1wn2)

在实际我们计算上述等式最后面的值时,可以用频数来代替(这是根据条件概率得到的),比如:

p ( w n ∣ w n − 1 ) = C ( w n − 1 w n ) / C ( w n − 1 ) p(w_{n}|w_{n-1})=C(w_{n-1}w_{n})/C(w_{n-1}) p(wnwn1)=C(wn1wn)/C(wn1)

p ( w n ∣ w n − 1 w n − 2 ) = C ( w n − 2 w n − 1 w n ) / C ( w n − 2 w n − 1 ) p(w_{n}|w_{n-1}w_{n-2})=C(w_{n-2}w_{n-1}w_{n})/C(w_{n-2}w_{n-1}) p(wnwn1wn2)=C(wn2wn1wn)/C(wn2wn1)

其中, C ( w n − 1 w n ) C(w_{n-1}w_{n}) C(wn1wn)表示 w n − 1 w n w_{n-1}w_{n} wn1wn一起在文章中出现的概率,其余类似。

实战篇

  根据上面的原理,我们来解决短语的语序问题。
  首先,我们需要语料,语料就用人民日报的NER语料,前几行如下:

海钓比赛地点在厦门与金门之间的海域。
这座依山傍水的博物馆由国内一流的设计师主持设计,整个建筑群精美而恢宏。
在发达国家,急救保险十分普及,已成为社会保障体系的重要组成部分。
日俄两国国内政局都充满变数,尽管日俄关系目前是历史最佳时期,但其脆弱性不言自明。
克马尔的女儿让娜今年读五年级,她所在的班上有30多名同学,该班的“家委会”由10名家长组成。
  解决短语的语序问题的脚本代码如下:

# -*- coding: utf-8 -*-
# author: Jclian91
# place: Pudong Shanghai
# time: 2020/5/18 4:04 下午
from itertools import permutations
from pprint import pprint
from operator import itemgetter

# read corpus data in sentence format
with open("corpus.txt", "r", encoding="utf-8") as f:
    content = [_.strip() for _ in f.readlines()]

# random characters input order
string = "哲学思想"
# string = "景德镇陶瓷"
# string = "突出贡献"
# string = "哈萨克斯坦"
# string = "管理局"
# string = "博物馆"
# string = "北京大学"
# string = "浦东发展银行"
# string = "世界杯决赛"
word_list = set(list(string))
print("模拟输入:", word_list)
candidate_list = list(permutations(word_list, r=len(word_list)))

# check if a character in the corpus
for word in word_list:
    if word not in "".join(content):
        raise Exception("%s不在语料库中!" % word)

# Language Model
word_prob_dict = {}
for candidate in candidate_list:
    candidate = list(candidate)
    prob = "".join(content).count(candidate[0])/len("".join(content))
    # 2-gram
    # prob = Count(W_{i}W_{i-1})/Count(W_{i-1})
    for i in range(1, len(candidate)):
        char_cnt = "".join(content).count(candidate[i-1])
        word_cnt = "".join(content).count("".join(candidate[i-1:i+1]))
        prob *= (word_cnt/char_cnt)
        if prob == 0:
            break

    word_prob_dict["".join(candidate)] = prob

# recognize result
# pprint(word_prob_dict)
print("最终输出结果:")
print(sorted(word_prob_dict.items(), key=itemgetter(1), reverse=True)[0])

输出结果如下:

模拟输入: {‘思’, ‘想’, ‘哲’, ‘学’}
最终输出结果:
(‘哲学思想’, 4.851640701745029e-08)

模拟输入: {‘陶’, ‘镇’, ‘德’, ‘瓷’, ‘景’}
最终输出结果:
(‘景德镇陶瓷’, 4.402324066467249e-12)

模拟输入: {‘贡’, ‘出’, ‘突’, ‘献’}
最终输出结果:
(‘突出贡献’, 4.4461494672771407e-07)

模拟输入: {‘坦’, ‘克’, ‘萨’, ‘斯’, ‘哈’}
最终输出结果:
(‘哈萨克斯坦’, 4.65260719191311e-09)

模拟输入: {‘理’, ‘局’, ‘管’}
最终输出结果:
(‘管理局’, 4.5911913512038205e-06)

模拟输入: {‘馆’, ‘物’, ‘博’}
最终输出结果:
(‘博物馆’, 5.9318486186358995e-06)

模拟输入: {‘大’, ‘京’, ‘北’, ‘学’}
最终输出结果:
(‘北京大学’, 3.491890788613219e-06)

模拟输入: {‘银’, ‘行’, ‘发’, ‘东’, ‘浦’, ‘展’}
最终输出结果:
(‘浦东发展银行’, 2.8403362134844498e-11)

模拟输入: {‘决’, ‘世’, ‘界’, ‘杯’, ‘赛’}
最终输出结果:
(‘世界杯决赛’, 6.28999814981479e-07)

总结

  上面的代码只是给出了如何解决短语的语序问题的一个实现思路,实际我们在应用的过程中还需要考虑以下问题:

  • 语料大小,本文示例语料较小,只有3万多句话,语料越大,识别的效果一般也越好;
  • 短语的长度,一般短语越长,识别的时间也越长,如何优化识别算法,从而使得识别时间更短;
  • 平滑处理,本例中不考虑分母为0的情形,实际应用中我们还需要考虑分母为0的情形,此时需要做平滑处理。

  本次分享到此结束,感谢大家的阅读~

  • 1
    点赞
  • 4
    收藏
    觉得还不错? 一键收藏
  • 4
    评论
自然语言处理(Natural Language Processing,NLP)是人工智能领域的一个重要研究方向,它致力于使计算机能够理解和处理人类的自然语言NLP在很多领域都有广泛的应用,下面我举一个NLP在智能客服领域的案例。 以一家电商平台为例,他们每天都会收到大量的用户反馈和投诉,但是人工客服无法处理这些大规模的文本信息,于是他们引入了NLP技术。 首先,他们利用NLP技术对用户的文本进行分词和词性标注,将文本切分为一个一个的词语,并为每个词语标注其词性,这样不仅可以更好地理解每个词语的具体含义,还方便后续的处理。 然后,他们运用NLP技术对这些文本进行情感分析,通过分析用户的语言情感,如积极、消极、中性等,来判断用户的反馈是否满意。这样可以快速识别出用户的情感倾向,并及时采取相应的措施进行回复和处理。 另外,该电商平台还使用NLP技术进行意图识别,通过分析用户的文本,判断他们的主要意图是询问商品信息、退款、投诉等。这样可以快速将用户的问题分类,并将其转发给相应的客服人员进行处理,提高服务效率。 此外,NLP还可以用于关键词提取,通过对用户文本进行处理,找出其中的关键词和关键短语,这样可以更好地了解用户的关注点,从而更有针对性地解决问题。 通过应用NLP技术,该电商平台能够高效地处理大量用户反馈和投诉,快速准确地识别用户的问题和需求,并作出相应的处理措施,从而提升用户体验和客户满意度。这个案例展示了NLP在智能客服领域的应用潜力和价值。

“相关推荐”对你有帮助么?

  • 非常没帮助
  • 没帮助
  • 一般
  • 有帮助
  • 非常有帮助
提交
评论 4
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值