这几天在没事的时候在打王者的时候,有时候前期上单老送人头、中路不守塔、下路射手辅助常被抓、我方打野只刷野等开始逆风的时候,队友之间就开始互喷。最近在刷Dou音的时候,发现有这些互喷视频。反正敏感词都变成了***的样子,所以就研究一下敏感词的过滤方法有哪些。
上单:打野是**吗,都残血了也不来抓
打野:法师是脑子有**,能不能守好线
射手:辅助是**,不出辅助装还老卖我
法师:上路下路都是**吗,能不能别送
辅助:**,都是**,出去举报你们这帮**
1 直接过滤法
使用循环来直接对语句进行敏感词过滤,如果语句长度以及含有敏感词少的话效果还可以,多的时候工作效率就不行了。
2 正则过滤法
其核心思路和上面类似,在python中通过使用re库的sub函数就可以直接实现替换。
# 方案一:正则
import re
def check_filter(keywords, text):
return re.sub('暴力|色情|敏感词','**',text)
keywords = ('暴力','色情','敏感词')
text = '这句话不包含暴力,也没有色情,更没有其他敏感词'
print(check_filter(keywords, text))
3 DFA过滤法
DFA的全名是 Deterministic Finite Automaton,翻译成中文就是“确定有穷自动机”。它的基本思想是基于状态转移来检索敏感词,只需要扫描一次待检测文本,就能对所有敏感词进行检测,所以效率比方法1高不少。
假设我们有以下5个敏感词需要检测:傻逼、傻子、傻大个、坏蛋、坏人。那么我们可以先把敏感词中有相同前缀的词组合成一个树形结构,不同前缀的词分属不同树形分支,以上述5个敏感词为例,可以初始化成如下2棵树:
把敏感词组成成树形结构有什么好处呢?最大的好处就是可以减少检索次数,我们只需要遍历一次待检测文本,然后在敏感词库中检索出有没有该字符对应的子树就行了,如果没有相应的子树,说明当前检测的字符不在敏感词库中,则直接跳过继续检测下一个字符;如果有相应的子树,则接着检查下一个字符是不是前一个字符对应的子树的子节点,这样迭代下去,就能找出待检测文本中是否包含敏感词了。
我们以文本“你是不是傻逼”为例,我们依次检测每个字符,因为前4个字符都不在敏感词库里,找不到相应的子树,所以直接跳过。当检测到“傻”字时,发现敏感词库中有相应的子树,我们把他记为tree-1,接着再搜索下一个字符“逼”是不是子树tree-1的子节点,发现恰好是,接下来再判断“逼”这个字符是不是叶子节点,如果是,则说明匹配到了一个敏感词了,在这里“逼”这个字符刚好是tree-1的叶子节点,所以成功检索到了敏感词:“傻逼”。大家发现了没有,在我们的搜索过程中,我们只需要扫描一次被检测文本就行了,而且对于被检测文本中不存在的敏感词,如这个例子中的“坏蛋”和“坏人”,我们完全不会扫描到,因此相比方案一效率大大提升了。
在python中,我们可以用dict来存储上述的树形结构,还是以上述敏感词为例,我们把每个敏感词字符串拆散成字符,再存储到dict中,可以这样存:
{
'傻': {
'逼': {
'\x00': 0
},
'子': {
'\x00': 0
},
'大': {
'个': {
'\x00': 0
}
}
},
'坏': {
'蛋': {
'\x00': 0
},
'人': {
'\x00': 0}
}
}
首先将每个词的第一个字符作为key,value则是另一个dict,value对应的dict的key为第二个字符,如果还有第三个字符,则存储到以第二个字符为key的value中,当然这个value还是一个dict,以此类推下去,直到最后一个字符,当然最后一个字符对应的value也是dict,只不过这个dict只需要存储一个结束标志就行了,像上述的例子中,我们就存了一个{'\x00': 0}的dict,来表示这个value对应的key是敏感词的最后一个字符。
同理,“坏人”和“坏蛋”这2个敏感词也是按这样的方式存储起来,这里就不罗列出来了。用dict存储有什么好处呢?我们知道dict在理想情况下可以以O(1)的时间复杂度进行查询,所以我们在遍历待检测字符串的过程中,可以以O(1)的时间复杂度检索出当前字符是否在敏感词库中,效率比方案一提升太多了。
#方案二:确定有限状态自动机
import time
time1 = time.time()
# DFA算法
class DFAFilter(object):
def __init__(self):
self.keyword_chains = {} # 关键词链表
self.delimit = '\x00' # 限定
def add(self, keyword):
keyword = keyword.lower() # 字母变小写
chars = keyword.strip() # 去除首尾空格换行
# 关键字为空直接返回
if not chars:
return
level = self.keyword_chains
# 遍历关键字的每个字
for i in range(len(chars)):
# 如果这个字已经存在字符链的key中就进入其子字典
if chars[i] in level:
level = level[chars[i]]
else:
if not isinstance(level, dict):
break
for j in range(i, len(chars)):
level[chars[j]] = {}
last_level, last_char = level, chars[j]
level = level[chars[j]]
last_level[last_char] = {self.delimit:0}
break
if i == len(chars) - 1:
level[self.delimit] = 0
def parse(self, path):
with open(path, encoding='utf-8') as f:
for keyword in f:
self.add(str(keyword).strip())
print('字典-->',self.keyword_chains)
def filter(self, message, repl='*'):
message = message.lower()
ret = []
start = 0
while start < len(message):
level = self.keyword_chains
step_ins = 0
for char in message[start:]:
if char in level:
step_ins += 1
if self.delimit not in level[char]:
level = level[char]
else:
ret.append(repl*step_ins)
start += step_ins - 1
break
else:
ret.append(message[start])
break
else:
ret.append(message[start])
start += 1
return ''.join(ret)
if __name__ == "__main__":
gfw = DFAFilter()
path = 'sensitive_words.txt'
gfw.parse(path)
text = '你真是个大傻逼,大傻子,傻大个,大坏蛋,坏人。'
result = gfw.filter(text)
print(text, '\n', result)
print('耗时:' + str(time.time()-time1) + 's')
sensitive_words.txt的内容如下:
傻逼
傻子
傻大个
坏蛋
坏人
4 AC自动机过滤法
AC自动机:一个常见的例子就是给出n个单词,再给出一段包含m个字符的文章,让你找出有多少个单词在文章里出现过。简单地讲,AC自动机就是字典树+kmp算法+失配指针。
# 方案三:AC自动机
import time
time1 = time.time()
# ACA算法
class node(object):
def __init__(self):
self.next = {}
self.fail = None
self.isWord = False
self.word = ""
class ac_automation(object):
def __init__(self):
self.root = node()
# 添加敏感词
def addword(self, word):
temp_root = self.root
for char in word:
if char not in temp_root.next:
temp_root.next[char] = node()
temp_root = temp_root.next[char]
temp_root.isWord = True
temp_root.word = word
# 失败指针
def make_fail(self):
temp_que = []
temp_que.append(self.root)
while len(tem_que) != 0:
temp = tem_que.pop(0)
p = None
for key,value in temp.next.item():
if temp == self.root:
temp.next[key].fail = self.root
else:
p = temp.fail
while p is not None:
if key in p.next:
temp.next[key].fail = p.fail
break
p = p.fail
if p is None:
temp.next[key].fail = self.root
temp_que.append(temp.next[key])
# 查找敏感词
def search(self, content):
p = self.root
result = []
currentposition = 0
while currentposition < len(content):
word = content[currentposition]
while word in p.next == False and p != self.root:
p = p.fail
if word in p.next:
p = p.next[word]
else:
p = self.root
if p.isWord:
result.append(p.word)
p = self.root
currentposition += 1
return result
# 加载敏感词库
def parse(self, path):
with open(path,encoding='utf-8') as f:
for keyword in f:
self.addword(str(keyword).strip())
# 敏感词替换
def words_replace(self, text):
result = list(set(self.search(text)))
for x in result:
m = text.replace(x, '*'*len(x))
text = m
return text
if __name__ == '__main__':
ah = ac_automation()
path = 'sensitive_words.txt'
ah.parse(path)
text1 = '米国的苹果新品发布被骚乱,真雞儿烦'
text2 = ah.words_replace(text1)
print(text1,'\n',text2)
print('总共耗时:' + str(time.time() - time1) + 's')
sensitive_words.txt内容如下:
米国
骚乱
雞儿
欢迎关注WX公众号《拇指编程》
发个敏感词库的资源:https://gitee.com/mjTree/MyPython/tree/master/敏感词过滤
红狼
红狼?:是一种生存在北美洲的犬科动物,毛皮粗短,上体的颜色主要是肉桂红色和黄褐色,灰色或黑色组成的混合色彩,背部则是黑色,吻和四肢黄褐色,尾巴尖黑色,眼睛很亮。以松鸡,浣熊,兔子,老鼠,腐肉和家畜中的动物为主要食物,也会吃腐肉。
它分布于美国东南部,其祖先是灰狼和郊狼的杂交种。由于数目稀少,红狼常找不到同类繁殖,而与北美大草原的灰狼交配,令纯种红狼的数量下降。1980年在野外灭绝,1989年《美国鱼类和野生动物局》将驯养的狼引入北卡罗来纳州野外放养,至2002年已繁衍到超过50只。此外还有170多头红狼在美国被圈养。
保护级度:
CR——极危物种。