旧的算法是简单对每一个脏字调用一遍string.replace,当然是用了StringBuilder。在测试的时候,RegEx要快一倍左右。但是 还是不太满意,应为网站上脏字过滤用的相当多,经过一番思考后,做了一个算法。再测试了一下,使用原文中的脏字库,0×19c的字符串长度,1000次循 环,文本查找耗时1933.47ms,RegEx用了1216.719ms,而此算法只用了34.125ms.
算法的关键,还是使用空间来换时间,使用了2个全局的BitArray, 长度均为Char.MaxValue。其中一个BitArray用来判断是否有某个char开头的脏字,另一个BitArray用来判断所有脏字中是否包 含某个char。经过这两个BitArray,可以做出快速判断,之后就使用Hash Code来判断完整的脏字,通过预先获取的最大脏字长度优化遍历过程。
需要的变量如下:
private BitArray firstCharCheck = new BitArray ( char . MaxValue ) ;
private BitArray allCharCheck = new BitArray ( char . MaxValue ) ;
private int maxLength = 0 ;
其中hash只使用到了key,value都置为null。也可以使用.NET 3.5中的HashSet,或者使用Dictionary<string, int>,记录脏字的出现次数。
初始化这些数据的方法如下:
foreach (string word in badwords)
{
if (!hash.ContainsKey(word))
{
hash.Add(word, null);
maxlength = Math.Max(maxlength, word.Length);
firstCharCheck[word[0]] = true;
foreach (char c in word)
{
allCharCheck[c] = true;
}
}
}
判断脏字是否出现在一个字符串中的代码如下:
int index = 0;
int offset = 0;
while (index < text.Length)
{
if (!firstCharCheck[text[index]])
{
while (index < text.Length - 1 && !firstCharCheck[text[++index]]) ;
}
for (int j = 1; j <= Math.Min(maxlength, text.Length - index); j++)
{
if (!allCharCheck[text[index + j - 1]])
{
break;
}
string sub = text.Substring(index, j);
if (hash.ContainsKey(sub))
{
return true;
}
}
index++;
}
return false;
替换的代码就不贴了,跟判断包含类似,只不过不能发现一个脏字后就退出循环。如果出现脏字的可能不是很高,就没有必要创建一个临时的StringBuilder。
进一步,可以通过借鉴.NET源码中string.GetHashCode()的实现,避免一次Substring的调用,提高性能。也可以设计递进的HashCode实现,比如”helloworld”可以用”helloworl”的hash进一步计算,优化效率。