PHP中文分词扩展

以前做过自然语言处理(nlp)的相关后端开发,之前也谈过搜索引擎Elasticsearch,它们都离不开一个基础性的工具~分词,放到Python里面也是处理文本的一个很基础常用的东西了,大致干的是这么一件事:将整句话按照一定匹配方法分成n个词语。例如:‘百度一下,你就知道’,可分为‘百度’、‘你’、‘就’、‘知道’,这几个词。

由于这是个基础性工具,Python作为一个机器学习,搞nlp的首选语言,基本上是调个包的事情,但Python的痛点大家也知道~普遍效率低!当时也没拜托搞Java的同志帮忙,就琢磨PHP能不能也搞一个,然后,就有了下面这篇介绍~

PHP中文分词扩展

安装

git clone https://github.com/jonnywang/phpjieba.git 
cd phpjieba/cjieba
make
cd ..
phpize (如果是多版本PHP,则是例如:/usr/local/php/71/bin/phpize)
./configure(./configure --with-php-config=/usr/local/php/71/bin/php-config)
make
make install
php.ini  
加上
extension=jieba.so 
jieba.enable=1 
jieba.dict_path=/usr/local/phpjieba/data/softs/jz/cjieba/dict #指向jieba库dict目录

function

array    jieba(string $text, bool use_extract = false, long extract_limit = 10)

examples:

ini_set('jieba.enable', 1);  //php.ini 配置了可不用写

ini_set('jieba.dict_path', '/usr/local/data/softs/phpjieba/cjieba/dict'); //php.ini 配置了可不用写

try {

  $result = jieba('小明硕士毕业于中国科学院计算所,后在日本京都大学深造');

  echo implode('/', $result) . PHP_EOL;

  //计算所/小明/京都大学/深造/硕士/中国科学院/毕业/日本

  $result = jieba('小明硕士毕业于中国科学院计算所,后在日本京都大学深造', 1, 50);

  echo implode('/', $result) . PHP_EOL;

  //小明/硕士/毕业/于/中国/科学/学院/科学院/中国科学院/计算/计算所/,/后/在/日本/京都/大学/京都大学/深造

  $result = jieba('他心理健康', 1);

  echo implode('/', $result) . PHP_EOL;

  //他/心理/健康/心理健康

  $result = jieba('this is a demo, my name is jony', 1, 10);

  echo implode('/', $result) . PHP_EOL;

  //demo/jony

  $result = jieba('this is a demo, my name is jony');

  echo implode('/', $result) . PHP_EOL;

  //this/ /is/ /a/ /demo/,/ /my/ /name/ /is/ /jony

  $result = jieba('小明硕士毕业于中国科学院计算所,后在日本京都大学深造', 2);

  print_r($result);

/*

  Array
      (

            [小明] => x

            [硕士] => n

            [毕业] => n

            [于] => p

            [中国科学院] => nt

            [计算所] => n

            => x

            [后] => f

            [在] => p

            [日本] => ns

            [京都大学] => nz

            [深造] => v

            )

      */

} catch (Exception $e) {

echo $e->getMessage . PHP_EOL;

}

还有就是,如果有需要完整匹配的词语,可放到dict文件夹下,这样就不会拆分了。性能上,别的不说,比起Python的分词包,那是不出意外的秒杀,哈哈~

  • 0
    点赞
  • 1
    收藏
    觉得还不错? 一键收藏
  • 0
    评论

“相关推荐”对你有帮助么?

  • 非常没帮助
  • 没帮助
  • 一般
  • 有帮助
  • 非常有帮助
提交
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值