[转]多模匹配算法与dictmatch实现


来源:http://stblog.baidu-tech.com/?p=418


多模式匹配在这里指的是在一个字符串中寻找多个模式字符字串的问题。一般来说,给出一个长字符串和很多短模式字符串,如何最快最省的求出哪些模式字符串出现在长字符串中是我们所要思考的。该算法广泛应用于关键字过滤、入侵检测、病毒检测、分词等等问题中。多模问题一般有Trie树,AC算法,WM算法等等。我们将首先介绍这些常见算法。

1.hash

 

可以单字、双字、全字、首尾字hash。

优点:简单、通常有效

缺点:受最坏情况制约,空间消耗大,需要回朔。

2.Trie树

 

改进:进行穿线,参考KMP的算法,进行相同前缀匹配,建立跳转路径,避免回朔。

 

跳转路径建立的算法思想:

如果要建立节点 A -> A’ 的 跳转路径需要满足:

1)       A = A’ 节点有相同的value值,代表同一个字

2)       A的深度>A’的深度

3)       对于A节点的父节点F,和A’节点的父节点(如果有父节点的话),有F->F’

优点:无回朔,查询效率一般较高

缺点:数据结构复杂难以维护,浪费空间多,建树时间长。

3.AC算法

本质上来说和Trie树一样。

 

转向函数:建立一个根据输入字符转变状态的有限自动机

失效函数:当出现状态无法根据输入字符继续走时,需要根据失效函数转化当前状态。失效函数的建立需要满足:节点r深度之前都已建立失效函数f。则若有g(r, a) = s,回朔r’=f( r )直至找到g(r’, a) 存在,则将f(s)=g(r’, a)。和Trie树是一致的。实际上,如果某状态节点r对输入字符a无路径,则可以将该节点的失效函数f( r )指向的状态节点r’的g(r’, a)作为g(r, a)。这样在搜索中就不需要专门考虑失效节点的问题了,只需要沿着转向函数一直走。

输出函数:某状态代表着匹配某模式的结束,因此输出函数的值就是匹配成功模式的集合。因为模式之间可能会有互包含,因此可能有多个成功匹配的模式。

AC算法比Trie树数据结构简单,因此运用广泛。用于snort等代码中。

4.WM算法

先讲BM算法。BM算法是KMP之外的另一个单模式字符串匹配算法,其思想也很简单:

假设模式串是P 主串是T, m=strlen(P),n=strlen(T)

1)       从左向右移动模式串

2)       对于模式串的匹配, 从右向左检查, 也就是P[m-1],p[m-2]…

3)       当发现不匹配时, 使用好后缀和/或坏字符来决定模式串移动的距离 通常同时使用两个来加快查找速度

当发现一个不匹配时 如下:

Consider a mismatch at P[n - 5]:

T:   mahtava       talomaisema omalomailuun

P:         maisemaomaloma

上面 m != t ,

这时 T 中的 t字符叫做坏字符,P 中的字符 “aloma” 叫做好后缀

坏字符算法:

当出现一个坏字符时, BM算法向右移动模式串, 让模式中最靠右的对应字符与坏字符相对。然后继续匹配。移动距离可预先计算为delta1(x) = m – max{k|P[k] = x, 1 <= k <= m}; (x出现在P中)。

好后缀算法:

如果程序匹配了一个好后缀, 并且在模式中还有另外一个相同的后缀, 那把下一个后缀移动到当前后缀位置(类似KMP 只是KMP是从左向右移动)。移动距离delta2可预先计算为delta2(j)= {s|P[j+1..m]=P[j-s+1..m-s]) && (P[j]≠P[j-s])(j>s)}。

BM算法在查找开始时 先根据模式串中所有字符建立一个坏字符表,然后创建一张好后缀表。在匹配过程中,取max{delta1, delta2}作为实际移动的离尾部的距离,即尽量移动距离最大。

BM算法的最坏时间复杂度为O(m*n),但实际比较次数只有文本串长度的20%~30%。可以看作是亚线性的时间复杂度算法。

WM算法的思想从BM算法思想演变而来,但是用于多模匹配中。WM算法也是从右到左进行匹配。WM算法有一个重要假设,假设所有的模式的字符串长度是一样的,为m。若不一样,则按最短的那个模式长度在做匹配时截断其他的模式。

WM算法将建立三张表:SHIFT[], HASH[], PREFIX[]。其中,SHIFT表用于决定匹配时出现失配的情况时的移动距离,类似于BM算法中的坏字符策略。HASH和PREFIX表则用于当SHIFT表匹配成功不需要移动后,决定是否具体匹配到某个模式的问题。

SHIFT表:考虑一块大小为B的字符块,而不是单纯的一个字符。一般取B=2或3。SHIFT为长度为B的一切可能的字符排列都建立一个索引,因此其下标的大小就是所有可能的长度为B的排列数。(实际上,可以通过压缩的策略将一些排列串弄到相同的空间)。SHIFT 中每一项的值决定在文本中出现某B 个字符组成的字符串时pattern 的移动距离,也就是在所有的pattern中出现的最右的B离pattern尾部的距离。假设X为当前计算的B长字符块,且被hash为i,考虑两种情况:

第一:X 不在任何一个pattern 中出现,我们可以将当前text考察的位置向后移
动m-B+1 个字符的距离,于是我们在SHIFT[i]中存放m-B+1。

第二:X 在某些pattern 中出现,这种情况下,我们考察那些pattern 中
X 出现的最右位置。假设,X 在P[j]中的q 位置出现,且在其他的出现X 的pattern 中X 的位置都不大于q。那么我们应该在SHIFT[i]中存放m-q。

最后我们将得到SHIFT 表,表中存放的值是我们text 中出现某一长为B 的字符串时能够移动的最大的安全距离。当检查pos位置,得到其B块的hash值为i,当SHIFT[i]<> 0 时,pos=pos + SHIFT,跳动。

 

HASH表:当SHIFT[i]=0时使用。SHIFT[i]=0时,代表匹配串当前位置的X可能匹配上了某个(某些)模式的尾部。因此HASH[i]指向了尾部B长的字符块散列值为i的模式链表的头p。我们可以将所有的模式以尾部B长的字符块的散列值进行排序存放在某个模式表数组中,则只需要依次递增p就可以找到所有尾部散列值为i的模式,直到p = hash[i+1],代表了该链表的尾部。

PREFIX表:当SHIFT[i]=0时,且通过HASH表列出了所有可能的模式时使用。通过对每个模式头部B’个字符进行hash,将其散列值放在PREFIX表中。HASH[i]中的指针同时也是指向PREFIX表的,通过比较PREFIX[p]和匹配串的头B’个字符的hash值,能够进一步确定是哪个模式匹配上了。最终,对该模式和匹配串的每一个字符进行一一匹配确定是否匹配。

如果SHIFT[i]=0,且检查匹配完成,则pos = pos + 1,继续检查pos位置的SHIFT。

实践证明,大部分时间SHIFT都不为0,(在一个典型的例子中,对于100个模式5%的时间移动值为0,1000个模式27%的时间移动值为0,5000个模式53%的时间。),也就代表匹配串是跳跃着前进的,因此可以达到亚线性的时间复杂度。经过计算,复杂度为O(mp)+ O(BN/m),设N是文本的大小,P是模式的数量,m是每个模式的长度。

优点:快速,数据结构简单,实现容易。

缺点:需要所有模式长度基本相同(不能有太短的模式),不支持变长的编码,例如GB18030。

 

dictmatch基本数据结构及算法

dictmatch其实是实现了最简单的Trie树的算法,而且并没有进行穿线改进,因此其是需要回朔的。但是其使用2个表来表示Trie树,并对其占用空间大的问题进行了很大的优化,特点是在建树的时候比较慢,但在查询的时候非常快。而且其使用的hash算法也值得一讲。

  1. 字典数据结构:

typedef struct _DM_DICT

{

char*                   strbuf;   // buffer for store word  result;

u_int          sbsize;

u_int          sbpos; // the next position in word buf

 

dm_entry_t* dentry; // the dict entry list

u_int          desize;

u_int          depos; // the first unused pos in de list

 

u_int*                 seinfo; // the suffix entry list

u_int                   seisize;

u_int          seipos;

 

dm_inlemma_t* lmlist; // the lemma list

u_int                   lmsize;

u_int          lmpos; // the first unused pos in lemma list

 

u_int                   entrance;

}dm_dict_t;

 

//lemma structure for dict

typedef struct _DM_INLEMMA

{

u_int len;

u_int prop;

u_int bpos;

}dm_inlemma_t;

 

typedef struct _DM_ENTRY

{

u_int value;

u_int lemma_pos;

u_int suffix_pos;

}dm_entry_t;

 

其中,dentry可以认为存放树的每个节点,seinfo可以认为存放每个节点的子树的指针列表(即后继块),lmlist存放完成匹配对应的某模式,而strbuf记录所有模式的字符串内容。

每个表的空间都预先开好,以xxxsize为大小。而xxxpos指针之前是已用空间,之后是未使用空间。

seinfo中,每个后继块首字节放的是该后继块的hash表大小,第二个字节指向其属主dentry节点,第三个字节开始是存放子树指针的hash表。因此,每个后继块的大小为hsize+2。

entrance指向了虚根节点所引出的每棵树的指针列表,也就是整个Trie树的入口。

图示:

 

 

2.   建树算法:(lemma指得就是一个模式)

 

 

3.   搜索模式匹配

 

 

关键策略

1.  解决hash冲突

解决后缀表中的hash冲突是非常重要的,因为在策略中通过hpos = value%hsize直接找到存放指向dentry的引用的位置,而没有考虑冲突的情况,因此必须在加入该hash表时解决。

方法也很简单,当出现冲突则不断增长hash size的大小,重新计算所有该后缀表中的hash值,直至无冲突。由于size变大因此原位置必然无法容纳新后缀表,需要在seinfo的尾部添加新表,而原表废弃不用,就造成了一个空洞。这也是需要压缩的原因。

2.   seinfo压缩算法

从前到后遍历所有的后缀表块,检查是否是有效的

无效:其backentry所指向的节点的suffix_pos不是自己,或backentry指向DM_DENTRY_FIRST(代表是根后缀表块)但entrance指向的不是自己。

 

当发现一块有效的后缀表块,而其前面有若干块无效的后缀表块时,将这块有效后缀表块copy到前面覆盖原来无效的位置,并更新backentry指向的dentry的suffix_pos。这样就可以填充掉所有的空洞,将所有的可用空间都留在sepos之后。

3.  编码

由于采用GB18030编码格式,因此一个字可能是1字节、2字节、4字节

1字节: 0×00~0×7F                                                                                                   ASCII

2字节: 0×81~0xFE        0×40~0×7E/0×80~0xFE                                                   GBK传统

4字节: 0×81~0xFE        0×30~0×39        0×81~0xFE        0×30~0×39                 GB新增(日韩文)

dm_get_word通过遍历字符决定下一个字是多少字节之后,并将当前字拼成u_int。

4.  各表初始大小

strsize:     20*lemma_num                [char]

desize:     2*lemma_num                  [struct]

sesize:      8*lemma_num                  [uint]

lmsize:     lemma_num                       [struct]

每次扩张都×2

每新建一个seinfo中的后继块,默认大小为3个u_int,一个放hsize,一个放backentry,一个放1个后继节点。

5.  search

参数DM_OUT_FMMDM_OUT_ALL
dm_search正向最大匹配的所有模式匹配(含重叠和包含)的所有模式
dm_search_prop正向最大匹配的所有模式的prop累“或”值匹配(含重叠和包含)的所有模式的prop累“或”值
dm_has_word正向最大匹配含有特定属性的子串,如果是多个属性值或在一起,任意一个属性符合条件即返回1匹配(含重叠和包含)的所有模式含有特定属性的子串,如果是多个属性值或在一起,任意一个属性符合条件即返回1

6.  prop和int互转

prop属性是一串字符串,其中每个字符都代表某一属性为真。

将prop转换成int需要遍历字符串,对每个字符查找其值是否已被分配到32位中的一位,若尚未分配,则递增分配,并记在g_propmap中。然后将该位置1。

将int转换成prop则正好是反操作,通过g_propmap查找每一位对应的字符。

int (*dm_prop_str2int_p)(char *) = NULL;

void (*dm_prop_int2str_p)(int, char *) = NULL;

这2个全局的函数指针,需要在使用时在外部赋值以便进行属性转换。

7.  搜索时,读同一个字典,多线程安全。

8.  为了使32位的字典在64位机器内使用,因此为了,将词典内部词条的结构和切词结构独立开了(以前是一个结构),分别是dm_inlemma_t和dm_lemma_t。区别在于,dm_inlemma_t结构中只有int,而dm_lemma_t中有int和char* ,其中char*在32位和64位表现不同,影响存储结构。

可能的改进

  1. 进行穿线,引入跳转路径。基本的想法就是,在dentry中新加入一个域failjump,指向另一个跳转的dentry节点,当Trie树匹配在某节点失败时,转向failjump域指向的新节点再进行一次或若干次匹配。这样可以做到对目标字符串无回朔,而不是现在的匹配失败后必须进行回朔。
  2. 转换成UNICODE之类的定长编码,(实际上dm_get_word已经做过类似的这一遍),然后使用WM算法进行计算。

 




  • 0
    点赞
  • 0
    收藏
    觉得还不错? 一键收藏
  • 0
    评论
基于OpenCV的图像旋匹配算法模板主要包括以下几个步骤: 1. 导入必要的库文件:首先需要导入OpenCV的Python库文件,以及NumPy库文件用于处理图像数据。 2. 加载模板图像和待匹配图像:通过OpenCV的cv2.imread()函数读取模板图像和待匹配图像,并换为灰度图像。 3. 提取模板图像和待匹配图像的特征点:使用OpenCV的SIFT、SURF或ORB等特征点检测算法对模板图像和待匹配图像进行特征点提取。 4. 对特征点进行匹配:使用OpenCV的特征点匹配函数(如cv2.FlannBasedMatcher()等)对模板图像和待匹配图像的特征点进行匹配。 5. 匹配结果筛选:根据匹配距离或其他阈值,筛选出较好的匹配结果,去除不合适的匹配点。 6. 估计仿射变换矩阵:通过匹配点的坐标计算仿射变换矩阵,将模板图像中的位置坐标换到待匹配图像上。 7. 进行图像旋:根据估计的仿射变换矩阵,使用OpenCV的cv2.warpAffine()函数对待匹配图像进行旋。 8. 显示匹配结果:通过OpenCV的cv2.imshow()函数显示旋后的匹配结果图像。 9. 测量匹配结果:根据匹配结果的准确性和可靠性,进行评估和测量,如计算特征点匹配的正确率等。 10. 输出最终结果:根据需求输出最终的匹配结果图像或旋角度等信息。 以上是基于OpenCV的图像旋匹配算法模板的主要步骤,可以根据实际需求对参数和处理过程进行调整和优化。

“相关推荐”对你有帮助么?

  • 非常没帮助
  • 没帮助
  • 一般
  • 有帮助
  • 非常有帮助
提交
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值