关联规则挖掘(二)


三、FP-增长算法

(一)算法的背景

Apriori算法存在以下两方面的不足:

(1)产生大量的候选项集

  例如,当事务数据库有104个频繁1-项集时, Apriori算法就需要产生多达107个候选2-项集,即对存储空间要求会影响算法的执行效率。

(2)多次重复地扫描事务数据库

  对每个 k = 1 , 2 , ⋯   , m k=1,2,\cdots,m k=1,2,,m,为了计算候选k-项集的支持度,都需要扫描一次事务数据库,才能确定候选k-项集的支持度,其计算时间开销很大。

用 FP-增长 (Frequent-Pattern Growth,FP-Growth) 算法来发现频繁项集。算法只需扫描事务数据库两次,其计算过程主要由以下两步构成。

(1)构造FP-树

  将事务数据库压缩到一棵频繁模式树 (Frequent-Pattern Tree,简记为FP-树) 之中,并让该树保留每个项的支持数和关联信息。

(2)生成频繁项集

  由FP-树逐步生成关于项集的条件树,并根据条件树生成频繁项集。

(二)构造FP-树

  FP-树是事务数据库的一种压缩表示方法。它通过逐个读入事务,并把每个事务映射为FP-树中的一条路径,且路径中的每个结点对应该事务中的一个项。不同的事务如果有若干个相同的项,则它们在FP-树中用重叠的路径表示,用结点旁的数字标明该项的重复次数,作为项的支持数。因此,路径相互重叠越多,使用FP-树结构表示事务数据库的压缩效果就越好。如果FP-树足够小且能够在内存中存储,则可以从这个内存的树结构中直接提取频繁项集,而不必再重复地扫描存放在硬盘上的事务数据库。

  某超市经营 a , b , c , d , e a,b,c,d,e a,b,c,d,e 等5种商品,即超市的项集 I = { a , b , c , d , e } I=\{a,b,c,d,e\} I={a,b,c,d,e},而表8-8是其交易数据库 T T T

在这里插入图片描述
下面借用这个事务数据库来介绍FP-树的构造方法,这里假设最小支持数 M i n S = 2 MinS=2 MinS=2

FP-树的构造主要由以下两步构成。

(1)生成事务数据库的头表 H H H

  第一次扫描事务数据库 T T T,确定每个项的支持数,将频繁项按照支持数递减排序,并删除非频繁项,得到 T T T 的频繁-1项集 H = { i v : S p t N v ∣ i v ∈ I , S p t N v 为项目 i v 的支持数 } H=\{i_v:SptN_v | i_v\in I, SptN_v为项目i_v的支持数\} H={iv:SptNvivI,SptNv为项目iv的支持数}。现有文献都将 H H H 称为事务数据库的头表 (Head table)。

  对于表8-8的事务数据库 T T T,其头表 H = { ( a : 8 ) , ( b : 7 ) , ( c : 6 ) , ( d : 5 ) , ( e : 3 ) } H=\{(a:8),(b:7),(c:6),(d:5),(e:3)\} H={(a:8),(b:7),(c:6),(d:5),(e:3)},即 T T T 中的每个项都是频繁的。

(2)生成事务数据库的FP-树

  第二次扫描数据集 T T T,读出每个事务并构建根结点为null的FP-树。

  开始时FP-树仅有一个结点null,然后依次读入 T T T 的第 r r r 个事务 t r ( r = 1 , 2 , ⋯   , ∣ T ∣ ) t_r (r=1,2,\cdots,|T|) tr(r=1,2,,T)。设 t r t_r tr 已删除了非频繁项,且已按照头表 H H H 递减排序为 { a 1 , a 2 , ⋯   , a i r } \{a_1,a_2,\cdots,a_{i_{r}}\} {a1,a2,,air},则生成一条路径 t r = n u l l − a 1 − a 2 − , ⋯   , − a i r t_r=null-a_1-a_2-,\cdots,-a_{i_{r}} tr=nulla1a2,,air,并按以下方式之一,将其添加到FP-树中,直到所有事务处理完备。

① 如果FP-树与路径 t r t_r tr 没有共同的前缀路径 (prefix path),即它们没有从null开始,其余结点完全相同的一段子路径,则将 t r t_r tr 直接添加到FP-树的null结点上,形成一条新路径,且让 t r t_r tr 中的每个项对应一个结点,并用 a v : 1 a_v:1 av:1 表示。

例 8-6 假设FP-树中已有两条路径 null-a-b 和 null-c-d-e (图8-4(1))。设有事务 t = { b , c , d } t=\{b,c,d\} t={b,c,d},其对应的路径为 t = n u l l − b − c − d t=null-b-c-d t=nullbcd (事务和对应的路径采用同一个符号 t t t )。因为FP-树与 t t t 没有共同的前缀路径,即从null开始没有相同的结点,因此,将t直接添加到FP-树中(图8-4(2))。

在这里插入图片描述
② 如果FP-树中存在从根结点开始与 t r t_r tr 完全相同的路径,即FP-树中存在从null到 a 1 a_1 a1 直到的路径,则将FP-树中该路径上从 a 1 a_1 a1 到的每个结点支持数增加1即可。

例 8-7 假设FP-树中已有两条路径 null-a-b-c 和 null-b-c-d (图8-5(1))。设有事务 t = { a , b } t=\{a,b\} t={a,b},其路径为 t = n u l l − a − b t=null-a-b t=nullab,则因为FP-树从根节点 null 开始存在与 null-a-b 完全相同的路径,因此,将结点 a , b a,b a,b 的支持数分别增加1即可(图8-5(2))。

在这里插入图片描述
③ 如果FP-树与路径 t r t_r tr 有相同的前缀路径,即FP-树已有从null到 a 1 a_1 a1 直到 a j a_j aj 的路径,则将FP-树的结点 a 1 a_1 a1 a j a_j aj 的支持数增加1,并将 t r t_r tr a j + 1 a_{j+1} aj+1 开始的子路径放在 a j a_j aj 之后生成新的路径。

例 8-8 假设FP-树中已有两条路径 null-a-b 和 null-b-c-d (图8-6(1))。设有事务 t = { b , c , e } t=\{b,c,e\} t={b,c,e},其对应的路径为 t = n u l l − b − c − e t=null-b-c-e t=nullbce,则因为FP-树与 t t t 存在共同的前缀路径 null-b-c,因此,将结点 b , c b,c b,c 的支持数直接增加1,并在结点 c c c 后面增加结点 e e e (图8-6(2))。

在这里插入图片描述
例 8-9 对表8-8所示的事务数据库 T T T,假设最小支持数 M i n S = 2 MinS=2 MinS=2,试构造它的FP-树。

在这里插入图片描述

在这里插入图片描述

(三)生成频繁项集

  由于每一个事务都被映射为FP-树中的一条路径,且结点代表项和项的支持数,因此通过直接考察包含特定结点 (例如e) 的路径,就可以发现以特定结点 (比如e) 结尾的频繁项集。

  由FP-树生成频繁项集的算法以自底向上的方式搜索FP-树,并产生指定项集的条件树,再利用条件树生成频繁项集。

  对于图8-8所示的FP-树,算法从头表 H = { ( a : 8 ) , ( b : 7 ) , ( c : 6 ) , ( d : 5 ) , ( e : 3 ) } H=\{(a:8),(b:7),(c:6),(d:5),(e:3)\} H={(a:8),(b:7),(c:6),(d:5),(e:3)} 的最后,即支持数最小的项开始,依次选择一个项并构造该项的条件FP-树 (condition FP-tree),即首先生成以 e e e 结尾的前缀路径,更新其结点的支持数后获得 e e e 的条件FP-树,并由此生成频繁项集 { e } \{e\} {e}

在这里插入图片描述
  在 { e } \{e\} {e} 频繁的条件下,需要进一步发现以 d e 、 c e 、 b e de、ce、be decebe a e ae ae 结尾的频繁项集等子问题,直至获得以 e e e 结尾的所有频繁项集,即包括 e e e 的所有频繁项集。

  观察头表 H H H 可知,包括 e e e 的项集共有 { e } \{e\} {e}, { d , e } \{d,e\} {d,e}, { c , e } \{c,e\} {c,e}, { b , e } \{b,e\} {b,e}, { a , e } \{a,e\} {a,e}, { c , d , e } \{c,d,e\} {c,d,e}, { b , d , e } \{b,d,e\} {b,d,e}, { b , c , e } \{b,c,e\} {b,c,e}, { a , d , e } \{a,d,e\} {a,d,e}, { a , c , e } \{a,c,e\} {a,c,e}, { a , b , e } \{a,b,e\} {a,b,e}, { a , c , d , e } \{a,c,d,e\} {a,c,d,e} 等。在 e e e 的条件FP-树产生过程中,算法会不断地删除非频繁项集保留频繁项集,而不是枚举地检验以上每个项集是否为频繁的,因而提高了搜索效率。从 d e de de 的条件FP-树可得以 d e de de 结尾的频繁项集 { a , d , e } , { d , e } \{a,d,e\}, \{d,e\} {a,d,e},{d,e}

  当包括 e e e 的所有频繁项集生成以后,接下来再按照头表 H H H,并依次寻找包括 d , c , b d, c, b d,c,b a a a 的所有频繁项集,即依次构造以 d , c , b d, c, b d,c,b a a a 结尾的前缀路径和条件FP-树,并获得以它们结尾的所有频繁项集。

在这里插入图片描述
根据与前面类似的计算过程,最终可得事务数据库 T T T 的所有频繁项集 (表8-9)。

在这里插入图片描述

四、关联规则的评价

1、主观标准

  以决策者的主观知识或领域专家的先验知识等建立的评价标准,称为主观兴趣度。关联规则 {黄油} ⇒ \Rightarrow {面包} 有很高的支持度和置信度,但是它表示的联系连超市普通员工都觉得显而易见,因此不是有趣的。关联规则 {尿布} ⇒ \Rightarrow {啤酒} 确实是有趣的,因为这种联系十分出人意料,并且可能为零售商提供新的交叉销售机会。

2、客观标准

  以统计理论为依据建立的客观评价标准,称为客观兴趣度。客观兴趣度以数据本身推导出的统计量来确定规则是否是有趣的。支持度,置信度,提升度等都是客观兴趣度,也就是客观标准。

(一)支持度和置信度的不足

  为了说明支持度和置信度在关联规则检测中存在的不足,可用基于2个项集 A A A B B B(也称二元变量 A A A B B B)的相依表来计算说明 (表8-10)。

在这里插入图片描述
  表8-10中的记号 A ‾ \overline A A 表示项集 A A A 没有在事务中出现, n i j n_{ij} nij 为支持数,即 n 11 n_{11} n11 表示同时包含项集 A A A B B B 的事务个数; n 01 n_{01} n01 表示包含 B B B 但不包含 A A A 的事务个数; n 10 n_{10} n10 表示包含 A A A 但不包含 B B B 的事务个数; n 00 n_{00} n00 表示既不包含 A A A 也不包含 B B B 的事务个数; n 1 + n_{1+} n1+ 表示 A A A 的支持数, n + 1 n_{+1} n+1 表示 B B B 的支持数,而 N N N 为事务数据库的事务总数。

例 8-10 一个误导的“强”关联规则。
M i n S = 0.3 MinS=0.3 MinS=0.3 M i n C = 0.60 MinC=0.60 MinC=0.60,则 S u p p o r t ( A ⇒ B ) = 4000 / 10000 = 0.4 > M i n S Support(A\Rightarrow B)=4000/10000=0.4>MinS Support(AB)=4000/10000=0.4>MinS C o n f i d e n c e ( A ⇒ B ) = 4000 / 6000 = 0.66 > M i n S Confidence(A\Rightarrow B)=4000/6000=0.66>MinS Confidence(AB)=4000/6000=0.66>MinS 得出 A ⇒ B A\Rightarrow B AB 是一个强关联规则的结论。

在这里插入图片描述
  实际上, A ⇒ B A\Rightarrow B AB 这个强关联规则却是一个虚假的规则,如果商家使用这个规则将是一个错误,因为购买录像的概率是75%比66%高。

  此外,计算机游戏和录像机是负相关的,因为买其中一种商品实际上降低了买另一种商品的可能性。如果不能完全理解这种现象,容易根据规则 A ⇒ B A\Rightarrow B AB 做出不明智的商业决策。

(二)相关性分析

  提升度 (Lift) 是一种简单的相关性度量。对于项集 A A A B B B,如果概 P ( A ∪ B ) = P ( A ) P ( B ) P(A\cup B)=P(A)P(B) P(AB)=P(A)P(B),则 A A A B B B 是相互独立的,否则它们就存在某种依赖关系。
L i f t ( A , B ) = P ( A ∪ B ) / ( P ( A ) × P ( B ) ) = ( P ( A ∪ B ) / P ( A ) ) / P ( B ) (8-6) Lift(A,B)=P(A\cup B)/(P(A)\times P(B))= (P(A\cup B)/P(A))/P(B)\tag{8-6} Lift(A,B)=P(AB)/(P(A)×P(B))=(P(AB)/P(A))/P(B)(8-6) L i f t ( A , B ) = C o n f i d e n c e ( A ⇒ B ) / S u p p o r t ( B ) (8-7) Lift(A,B)=Confidence(A\Rightarrow B)/Support(B)\tag{8-7} Lift(A,B)=Confidence(AB)/Support(B)(8-7) 如果 L i f t ( A , B ) Lift(A,B) Lift(A,B) 的值大于1,表示二者存在正相关,而小于1表示二者存在负相关。若其值等于1,则表示二者没有任何相关性。

对于二元变量,提升度等价于被称为兴趣因子 (Interest factor) 的客观度量,其定义如下 L i f t ( A , B ) = I ( A , B ) = S u p p o r t ( A ∪ B ) / ( S u p p o r t ( A ) × S u p p o r t ( B ) ) Lift(A,B)= I(A,B)=Support(A\cup B)/(Support(A)\times Support(B)) Lift(A,B)=I(A,B)=Support(AB)/(Support(A)×Support(B)) = N × n 11 / ( n 1 + × n + 1 ) (8-8) =N\times n_{11}/(n_{1+}\times n_{+1})\tag{8-8} =N×n11/(n1+×n+1)(8-8)

例 8-11 对于表8-11所示的相依表,试计算其提升度或兴趣因子。

P ( A ∪ B ) = 4000 / 100000 = 0.4 P(A\cup B)=4000/100000=0.4 P(AB)=4000/100000=0.4 P ( A ) = 6000 / 1000 = 0.6 P(A)=6000/1000=0.6 P(A)=6000/1000=0.6 P ( B ) = 7500 / 10000 = 0.75 P(B)=7500/10000=0.75 P(B)=7500/10000=0.75

L i f t ( A , B ) = P ( A ∪ B ) / ( P ( A ) × P ( B ) ) = 0.4 / ( 0.6 × 0.75 ) = 0.4 / 0.45 = 0.89 Lift(A,B)= P(A\cup B)/(P(A)\times P(B))=0.4/(0.6\times0.75)=0.4/0.45=0.89 Lift(A,B)=P(AB)/(P(A)×P(B))=0.4/(0.6×0.75)=0.4/0.45=0.89

关联规则 A ⇒ B A\Rightarrow B AB,也就是 {计算机游戏} ⇒ \Rightarrow {录像机} 的提升度 Lift(A,B) 小于1,即前件 A A A 与后件 B B B 存在负相关关系,若推广 “计算机游戏” 不但不会提升 “录像机” 的购买人数,反而会减少。

项集之间的相关性也可以用相关系数来度量。对于二元变量 A A A B B B,相关系数 r r r 定义为 r ( A , B ) = n 11 × n 00 − n 01 × n 10 n + 1 × n 1 + × n 0 + × n + 0 (8-9) r(A,B)=\frac{n_{11}\times n_{00}-n_{01}\times n_{10}}{\sqrt{n_{+1}\times n_{1+}\times n_{0+}\times n_{+0}}}\tag{8-9} r(A,B)=n+1×n1+×n0+×n+0 n11×n00n01×n10(8-9) 若相关系数 r r r 等于0,表示二者不相关,大于0表示正相关,小于0表示负相关。

例 8-12 对例8-10的表8-11所示的相依表,试计算相关因子。

:相关系数 r r r 的分子等于 4000 × 500 − 3500 × 2000 = 2000000 − 7000000 = − 5000000 4000×500-3500×2000=2000000-7000000=-5000000 4000×5003500×2000=20000007000000=5000000,故相关系数 r r r 小于0,故购买 “计算机游戏” 与购买 “录像机” 两个事件是负相关的。

此外,相关性还可以用余弦值来度量,即 r c o s ( A , B ) = p ( A ∪ B ) p ( A ) × p ( B ) = S u p p o r t ( A ∪ B ) S u p p o r t ( A ) × S u p p o r t ( B ) (8-10) r_{cos}(A,B)=\frac{p(A\cup B)}{\sqrt{p(A)×p(B)}}=\frac{Support(A\cup B)}{\sqrt{Support(A)×Support(B)}}\tag{8-10} rcos(A,B)=p(A)×p(B) p(AB)=Support(A)×Support(B) Support(AB)(8-10)

相关性度量可以提高关联规则的可用性,但仍然存在局限性,还需要研究,并引入其它客观度量。

  • 28
    点赞
  • 17
    收藏
    觉得还不错? 一键收藏
  • 打赏
    打赏
  • 0
    评论

“相关推荐”对你有帮助么?

  • 非常没帮助
  • 没帮助
  • 一般
  • 有帮助
  • 非常有帮助
提交
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包

打赏作者

Francek Chen

你的鼓励将是我创作的最大动力

¥1 ¥2 ¥4 ¥6 ¥10 ¥20
扫码支付:¥1
获取中
扫码支付

您的余额不足,请更换扫码支付或充值

打赏作者

实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值