统计分词/无字典分词学习(1):介绍和语料准备

           分词算法中,一般都需要一个词典,但这些词典往往很难覆盖所有的词,特别是在一些专业领域,甚至有超过40%的词都不在词典里面,这样首先就需要“学习”大量的新词,否则分词准确性很难提高,进一步的,有研究就干脆不要词典了,由算法自动从大量的语料中学得一个词典,这就是统计分词,或者成为无字典分词。一般就只预设一个小规模的词典,后者没有词典,首先从大量的未标注语料,也就是生语料中学习出一个词典,然后利用这个词典再去分词。对应的研究主题有新词发现,无监督分词,无字典分词,统计分词等。

这里我们还以英文为例,找一些英文文本,首先利用标点分成句子,然后去掉词之间的空格,这样就是构造了英文的分词生语料,其就是一系列没有空格的英文单词

如:

thisisatest
wheninthecourseofhumaneventsitbecomesnecessary
itisatruthuniversallyacknowledged
inaholeinthegroundtherelivedahobbitnotanastydirtywethole
itwasthebestoftimesitwastheworstoftimesitwastheageofwisdomitwastheageoffoolishness

            我们的任务就是从这些语料中“学习”一个英文词典,然后进行分词。


这样的无监督学习一般都需要大量的语料,目前开放的下载的语料其实并不是很多

我们就直接利用互联网,下载格式比较规整的数据,这里使用wikipedia的下载xml数据,抽出正文,然后拿出句子,并去掉单词之间的空格,这里抽取1G的数据作为训练数据,具体可以在这里下载到:http://pan.baidu.com/s/1dDtFHID


        然后我们要对统计分词的效果设计定一个评测标准,这里我们直接使用一个比较全的词典,就是前面几个文章中用用到的count_1w.txt作为标准词典,大概有30多万的单词,并利用该词典分词得到的分词形式作为标准形式,这样便于对字典构造以及分词方法进行分别考察。

  • 1
    点赞
  • 3
    收藏
    觉得还不错? 一键收藏
  • 打赏
    打赏
  • 1
    评论

“相关推荐”对你有帮助么?

  • 非常没帮助
  • 没帮助
  • 一般
  • 有帮助
  • 非常有帮助
提交
评论 1
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包

打赏作者

wangliang_f

你的鼓励将是我创作的最大动力

¥1 ¥2 ¥4 ¥6 ¥10 ¥20
扫码支付:¥1
获取中
扫码支付

您的余额不足,请更换扫码支付或充值

打赏作者

实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值