使用scws组件分词和phpanalysis分词类实现简单的php分词搜索

使用scws组件分词和phpanalysis分词类实现简单的php分词搜索

关键字:php  分词  搜索

什么是scws

SCWS 是 Simple Chinese Word Segmentation 的首字母缩写(即:简易中文分词系统)。

这是一套基于词频词典的机械式中文分词引擎,它能将一整段的中文文本基本正确地切分成词。 词是中文的最小语素单位,但在书写时并不像英语会在词之间用空格分开, 所以如何准确并快速分词一直是中文分词的攻关难点。

SCWS 采用纯 C 语言开发,不依赖任何外部库函数,可直接使用动态链接库嵌入应用程序, 支持的中文编码包括 GBK、UTF-8 等。此外还提供了 PHP 扩展模块, 可在 PHP 中快速而方便地使用分词功能。

分词算法上并无太多创新成分,采用的是自己采集的词频词典,并辅以一定的专有名称,人名,地名, 数字年代等规则识别来达到基本分词,经小范围测试准确率在 90% ~ 95% 之间, 基本上能满足一些小型搜索引擎、关键字提取等场合运用。首次雏形版本发布于 2005 年底。

下载地址(需要下载SCWS规则集文件、xdb词典文件和对应版本的php_scws.dll扩展库)

http://www.xunsearch.com/scws/

安装php扩展

将php_scws.dll的扩展库放入php目录下的ext目录中

然后再php.ini中添加以下配置,添加完成后重启

[scws]

extension = php_scws.dll

scws.default.charset = gbk

scws.default.fpath = "C:\Program Files\scws\etc"

注:extension的路径要确保能加载ext目录下的.dll扩展。

      scws.default.fpath的目录是分词规则文件的绝对目录

新建一个目录(C:\Program Files\scws),将xdb文件放入。如图:

 

将规则集文件(规则集文件在scws的全部源代码的压缩包中可以找到)放到etc目录下,如图:

 

注:规则集和字典包的作用再官网里面很详细

下面就来实际操作一下:

<?php

header("Content-Type:text/html;charset=utf-8");

$sc = scws_new();   //实例分词类

$sc->set_charset('utf-8');      //设置分词时所用的编码

$sc->set_dict('C:\Program Files\scws\dict.utf8.xdb');   //设置分词所用的字典包

$sc->set_rule('C:\Program Files\scws\etc\rules.utf8.ini');    //设置分词所用的规则

$sc->set_ignore(true);    //去掉标点符号后在分词

$sc->set_multi(true);           //复式分割

$sc->send_text('山东,厨具。');    //分词的语句

while($tmp[] = $sc->get_result()){         //获取分词结果

}

//连接数据库

mysql_connect('localhost','root','root');

mysql_select_db('tdmalls');

mysql_query('set names utf8');

//组合sql

$sql = "select article_title from th_article where ";

$len2 = count($tmp[0]);

for($j=0;$j<$len2;$j++){

      if($j == $len2-1){

           $sql .= " article_title like '%".$tmp[0][$j]['word']."%'";

      }else{

           $sql .= " article_title like '%".$tmp[0][$j]['word']."%' and ";

      }

}

$res2 = mysql_query($sql);

while($row[] = mysql_fetch_assoc($res2)){}

以上代码的分词的结果:

 

以上代码组合的sql(sql的组合根据自己的情况来):

 

以上代码搜索出来的结果:

 

这里关于scws的方法介绍的并不多,有需要的可以网上查找更多的使用方法

 

什么是phpanalysis无组件分词系统

下载地址的链接包含了这个系统的详细介绍,这个系统就是一个php的类,使用起来比较方便直接引入类文件就可以使用,但速度比scws这类组件形式的分词慢

下载地址:

http://www.phpbone.com/phpanalysis/

使用方法比较简单,将下载的文件解压放入指定目录

 

然后再demo中引入这个类文件就可以使用了:

header("Content-type:text/html;charset=utf-8");

require_once './phpanalysis/phpanalysis.class.php';          //引入分词类文件

$fc = new PhpAnalysis();      //实例分词类(#注:这个步骤很耗时)

$str = '打造厨具';         

$fc->SetSource($str);           //设置待分词的字符

//设置生成的分词结果数据类型,2为词典词汇及单个中日韩简繁字符及英文

$fc->resultType = 2;          

$fc->StartAnalysis();      //开始分词

$arr = $fc->GetFinallyIndex();     //获取分词数组,键是词

$arr = implode(' ',array_keys($arr));

$arr = explode(' ',$arr);

//连接数据库

$m_db = mysql_connect('localhost','root','root');

mysql_select_db('tdmalls');

mysql_query('set names utf8');

//sql

$len = count(array_filter($arr));

$sql = "select article_title from th_article where ";

for($i=0;$i<$len;$i++){

      if($i == $len-1){

           $sql .= " article_title like '%".$arr[$i]."%'";

      }else{

           $sql .= " article_title like '%".$arr[$i]."%' and ";

      }

}

$res = mysql_query($sql);

while($row[] = mysql_fetch_assoc($res)){}

以上代码分出来的词的结果:

 

注:这个地方键才是分出来的词

最终搜索出来的结果:

 

虽然用起来方便也做了很多优化但速度还是不理想,实例化该类的时候很耗时。

该类的方法注释还算详细就不再介绍了。

 

转载于:https://www.cnblogs.com/trblog/p/5932297.html

安装说明: 1. 复制search 目录到网站根目录,请不要修改此文件夹的名称 2. 初次安装, 访问: 域名/search/baseline.php 例如:你的域名是www.ahuoo.com, 那么请访问 www.ahuoo.com/search/baseline.php 3. 修改代码 1.先备份网站根目录的search.php,然后用插件里面的替换掉 2.在模版中找到商品搜索页中的商品名称显示语句,有些模版在library/search_goods_list.lbi文件中,如果没有search_goods_list.lbi文件那就在search.dwt文件中。 语句如: <a href="{$goods.url}" title="{$goods.goods_name|escape:html}" class="name">{$goods.goods_name}</a> 将其中的{$goods.goods_name}改为{$goods.new_goods_name} 3. 在admin\goods.php文件中找到如下代码: sys_msg($is_insert ? $_LANG['add_goods_ok'] : $_LANG['edit_goods_ok'], 0, $link); 在此代码上一行前添加如下代码: require_once ('../search/delta.php'); //ahuoo 4. 在admin\category.php文件中找到如下代码: sys_msg($_LANG['catedit_succed'], 0, $link); 在此代码上一行前添加如下代码: require_once ('../search/delta.php'); //ahuoo 4. 如果需要添加自定义关键词可访问: 域名/search/add_word.php 一般情况下是不需要的。 插件原理: Ecshop默认情况下搜索是根据数据库搜索的字符串去匹配,不能自动根据需要去自动分词。 例如:你搜索“李宁安踏” 标题里面必须要有“李宁安踏”才能出来, 如果某个商品标题只有“李宁”是不会出来的,这样对于普通的用户是不友好的。 本插件提供的功能: 1.提供一种强大的分词搜索,用户可以不用空格某几个分词,随便打一个句子就可以搜索出对应的结果 2.可以自定义分词。 3.搜索结果自动按照相关度排序,相关度越相关,越排在最前面。 插件为试用版,如果正式使用可以联系作者购买,当前只索引了商品的标题和分信息,如果需要索引商品详情可以定制化开发,shopex也会有对应的版本。 插件作者 :阿虎 QQ:1976468723 演示地址: 前台:http://ahuoo.com/ec/search.php?encode=YTo0OntzOjg6ImNhdGVnb3J5IjtzOjE6IjAiO3M6ODoia2V5d29yZHMiO3M6MTI6IuiBlOmAmuS4ieaYnyI7czoxMDoiaW1hZ2VGaWVsZCI7czowOiIiO3M6MTg6InNlYXJjaF9lbmNvZGVfdGltZSI7aToxNDQ5MDYxNTAzO30= 后台: http://ahuoo.com/ec/admin 用户名/密码:test/test123
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值