汉字转拼音
敏感词过滤
禁用词查找
这些很常用的互联网需求
大家出道时是怎么做的?
大家偷懒时是怎么做的?
常规算法 - 从数据库到用户提交内容去匹配:
- 把数据库中所有数据压到大数组中(这时数据越多,与数据库连接时间越长)
- 根据用户提交的内容对大数组进行foreach(这时数据越多,占有服务器内存越大)
- 根据上述结果,进行相应的返回、处理(这时数据越多,与数据库连接时间越长)
优点:
- 逻辑简单,实施方便,开发成本低,人算素质要求低
缺点:
- 程序效率低,数据库压力大,速度慢
- 有bug,比如数据库中禁用词是shop,但是用户提交的是bookshop,那么就会匹配到shop,形成bug
值此圣诞节来临之举,http://my.oschina.net/cart/向大家推荐一种新的 反向思维 解决思路:
新算法:用户提交数据分词算法 - 从用户提交内容到数据库去匹配
- 1.根据用户提交的信息进行分词
function cutWord($str){
$temp = array();
$len = mb_strlen($str, 'utf-8');
for($i=0; $i<=$len; $i++){
for($j=$len-$i; $j>0; $j--){
$temp[] = mb_substr($str, $i, $j, 'utf-8');
}
}
return $temp;
}
$str = '管理员';
var_dump(cutWord($str));
分词后,我们得到以下数据,当然,上述算法是分割到最后一个词的
如果需要最低2个词的组合,因为1个字构不成实体意义,一般不会成为禁用词, 那么可以限制最少 2 个字 。
太长的分词,比如已经超过5个字的词,是不会发生的, 那么你也可以限制最多 5 个字 。
掌握的是思想、原理,算法可以灵活改动。
array(6) {
[0]=>
string(9) "管理员"
[1]=>
string(6) "管理"
[2]=>
string(3) "管"
[3]=>
string(6) "理员"
[4]=>
string(3) "理"
[5]=>
string(3) "员"
}
- 2.根据上述分词结果,使用事务批量提交到Redis,或者查找到1个禁用词后,立即退出,提高效率
如果是关系型数据库,如Mysql,分词后可以拼接SQL语句形如(word字段建立了唯一索引):
where word LIKE '管' OR word LIKE '理' OR word LIKE '管理' OR ..... LIMIT 0,1;
1句基于索引且找到就停止了(LIMIT 0,1)的SQL就搞定!效率也是杠杠的!
function isDisableWord($str){
$redis = new \redis(你的IP, 你的端口);
//$result = array();
//$redis->multi();
foreach($this->cutWord($str) as $v){
//$result[] = $redis->SISMEMBER('nameList', $v);
if($redis->SISMEMBER('nameList', $v)){
return $v;
}
}
//$redis->exec();
//return $result;
return false;
}
$name = trim('弗兰克鲁宾逊');
if(isDisableWord($name) === false){
echo '1.OK!';
}else{
echo '1.禁止词语是:';
var_dump(isDisableWord($name));
}
优点:
1.事务提交(主键索引、无大数据占有内存),一次性数据库操作数据库压力小,运行速度快
缺点:
1.对开发人员素质要求较高