《Python数据分析与挖掘实战》第八章学习-关联规则Apriori

《Python数据分析与挖掘实战》这本书其实已经在暑假结束的时候就已经基本上过了一遍,但是却一直没有坚持着记录。最近几天想着将之前的学习内容整理一遍,因此,再做记录。
全文分为以下三个部分:

  1. Apriori算法
  2. Apriori的python实现
  3. 总结

Apriori算法

首先先对Apriori算法的理论知识进行梳理。由于《Python数据分析与挖掘实战》主要针对实战,因此,对理论部分阐述并不多,本文理论知识主要来自于《数据挖掘概念与技术》。

频繁模式、项集和关联规则

频繁模式是频繁地出现在数据集中的模式(如项集、子序列或子结构)。例如,频繁地同时出现在交易数据集中的商品(如牛奶和面包)便是一个频繁项集,而频繁地出现在购物数据库中的序列数据(比如先买PC,再买数码相机,再买内存卡)则是频繁子序列。
项集是项的集合,包含k个项的项集称为k项集,如I={ i1,i2,,im }就是一个m项集。
关联规则指的是,项集中每个元素频繁关联或同时出现的模式。具体的,设I={ i1,i2,,im }是项的集合,则关联规则是形如A=>B的蕴涵式,其中A和B都是I的子集,且A、B都不为空,A、B的交集为空。
比如,下例表示的就是购买计算机之后又同时购买财务管理软件的关联规则。
这里写图片描述

支持度、置信度、频繁项集和强关联规则

支持度和置信度是规则兴趣度的两种度量,分别反映所发现规则的有用性和确定性。比如针对上面的举例规则,假设其支持度为2%,置信度为60%,则前者表示分析的所有事务的2%同时购买计算机和财务管理软件(每一个事务是一个非空项集,是上述提到I的子集,所有事务的集合是事务集,构成关联规则发现的事务数据库。),后者表示购买计算机的顾客60%也购买了财务管理软件。
具体用公式表示如下:
这里写图片描述
这里写图片描述
如果项集I的相对支持度(上述公式有时称为相对支持度,而项集的出现频度称为绝对支持度)满足预定义的最小支持阈值(即I的绝对支持度满足对应的最小支持度计数阈值),则I是频繁项集
满足最小支持度和最小置信度的关联规则,是强关联规则

Apriori算法-频繁项集挖掘

Apriori算法是一种发现频繁项集的基本算法。其使用一种称为逐层搜索的迭代方法,其中k项集用于探索(k+1)项集。首先,通过扫描数据库,累计每个项的计数,并收集满足最小支持度的项,找出频繁1项集的集合。该集合记为L1。然后。使用L1找出频繁2项集的集合L2,使用L2找出L3,如此下去,直到不能再找到频繁k项集。
为了压缩搜索空间,提出先验性质:频繁项集的所有非空子集也一定是频繁的。(如果一个集合不能通过测试,则他的所有超集也都不能通过相同的测试)

如何使用 Lk1 找出 Lk (k≥2)

分为两步——连接步和剪枝步

  • 连接步:为找出 Lk ,通过将 Lk1 与自身连接产生候选k项集的集合。Apriori算法假定项集中的项按照字典序排序。设 l1 l2 Lk1 中的项集,如果 l1 l2 的前(k-2)个项是相同的,则称 l1 l2 是可连接的。所以 l1 l2 连接产生的结果项集是{ l1[1] , l1[2] , …, l1[k1] , l2[k1] }。
  • 剪枝步:由于存在先验性质:任何非频繁的(k-1)项集都不是频繁k项集的子集。因此,如果一个候选k项集 Ck 的(k-1)项子集不在 Lk1 中,则该候选也不可能是频繁的,从而可以从 Ck 中删除,获得压缩后的 Ck

将《数据挖掘概念与技术》中的Apriori例子摘录如下:
该例基于图6.2的数据库,该数据库一共有9个事务。
这里写图片描述
这里写图片描述
这里写图片描述
这里写图片描述
这里写图片描述
这里写图片描述
这里写图片描述

由频繁项集产生关联规则

可直接由频繁项集产生强关联规则:

  • 对于每个频繁项集l,产生l的所有非空子集。
  • 对于l的每个非空子集s,如果 support_count(t)support_count(s) ≥min_conf(最小置信度),则输出规则”s=>(l-s)”。min_conf为最小置信度阈值。

其中置信度公式完整如下:
这里写图片描述
继续上一个例子,摘录如下:
这里写图片描述

Apriori的python实现

《Python数据分析与挖掘实战》中给出了Apriori的实现代码。
具体代码如下:

import pandas as pd


#自定义连接函数,用于实现L_{k-1}到C_k的连接
def connect_string(x, ms):
    x = list(map(lambda i:sorted(i.split(ms)), x))
    l = len(x[0])
    r = []
    for i in range(len(x)):
        for j in range(i,len(x)):
            if x[i][:l-1] == x[j][:l-1] and x[i][l-1] != x[j][l-1]:
                r.append(x[i][:l-1]+sorted([x[j][l-1],x[i][l-1]]))
    return r

#寻找关联规则的函数
def find_rule(d, support, confidence, ms = u'--'):
    result = pd.DataFrame(index=['support', 'confidence']) #定义输出结果

    support_series = 1.0*d.sum()/len(d) #支持度序列
    column = list(support_series[support_series > support].index) #初步根据支持度筛选
    k = 0

    while len(column) > 1:
        k = k+1
        print(u'\n正在进行第%s次搜索...' %k)
        column = connect_string(column, ms)
        print(u'数目:%s...' %len(column))
        sf = lambda i: d[i].prod(axis=1, numeric_only = True) #新一批支持度的计算函数

       #创建连接数据,这一步耗时、耗内存最严重。当数据集较大时,可以考虑并行运算优化。
        d_2 = pd.DataFrame(list(map(sf,column)), index = [ms.join(i) for i in column]).T

        support_series_2 = 1.0*d_2[[ms.join(i) for i in column]].sum()/len(d) #计算连接后的支持度
        column = list(support_series_2[support_series_2 > support].index) #新一轮支持度筛选
        support_series = support_series.append(support_series_2)
        column2 = []
        #遍历可能的推理,如{A,B,C}究竟是A+B-->C还是B+C-->A还是C+A-->B?
        for i in column:
            i = i.split(ms)
            for j in range(len(i)):
                column2.append(i[:j]+i[j+1:]+i[j:j+1])

        cofidence_series = pd.Series(index=[ms.join(i) for i in column2]) #定义置信度序列

        for i in column2: #计算置信度序列
            cofidence_series[ms.join(i)] = support_series[ms.join(sorted(i))]/support_series[ms.join(i[:len(i)-1])]

        for i in cofidence_series[cofidence_series > confidence].index: #置信度筛选
            result[i] = 0.0
            result[i]['confidence'] = cofidence_series[i]
            result[i]['support'] = support_series[ms.join(sorted(i.split(ms)))]

    result = result.T.sort_values(['confidence','support'], ascending = False) #结果整理,输出
    print(u'\n结果为:')
    print(result)

    return result

通过分析上述代码,可以发现,上述代码并没有利用先验性质进行剪枝步。
利用上述函数,对数据进行处理。
代码如下:

inputfile = 'D:/ProgramData/PythonDataAnalysiscode/chapter8/demo/data/apriori.txt' #输入事务集文件
data = pd.read_csv(inputfile, header=None, dtype = object)

start = time.clock() #计时开始
print(u'\n转换原始数据至0-1矩阵...')
ct = lambda x : pd.Series(1, index = x[pd.notnull(x)]) #转换0-1矩阵的过渡函数
b = list(map(ct, data.as_matrix())) #用map方式执行
data = pd.DataFrame(b).fillna(0) #实现矩阵转换,空值用0填充
end = time.clock() #计时结束
print(u'\n转换完毕,用时:%0.2f秒' %(end-start))
del b #删除中间变量b,节省内存

support = 0.06 #最小支持度
confidence = 0.75 #最小置信度
ms = '---' #连接符,默认'--',用来区分不同元素,如A--B。需要保证原始表格中不含有该字符

start = time.clock() #计时开始
print(u'\n开始搜索关联规则...')
find_rule(data, support, confidence, ms)
end = time.clock() #计时结束
print(u'\n搜索完成,用时:%0.2f秒' %(end-start))

输出结果如下:
这里写图片描述
由结果也可以看出,本书中对于Apriori算法的实现尚有不足,不仅没有利用到剪枝步,最后的结果中也没有明确究竟是怎样的规则。
最后博主查找其他资料,参考了Apriori(Python实现)这篇文章中的Python代码。
输出结果(部分)如下:
这里写图片描述
这里写图片描述
利用这位作者的代码对书中的数据集进行实战,结果跟书中最后实现是一样的,但是过程更加清晰,且最后的规则展现也更加明确。

总结

本文主要结合了《数据挖掘概念与技术》的理论内容和《Python数据分析与挖掘实战》的实战内容,最后又参考了其他人的python实现代码。
对关联规则理论部分有了较好的理解,但是对代码实现部分,还需要再反复揣摩理解一下。
至此,对第八章关联规则部分整理完毕。

  • 6
    点赞
  • 51
    收藏
    觉得还不错? 一键收藏
  • 2
    评论
非常好的问题!那么,让我来简单介绍一下关联规则Apriori算法。 在数据挖掘中,关联规则是一种可以在数据集中发现有趣关系的技术。关联规则通常用于市场篮子分析,其中我们试图找出哪些商品经常一起购买。例如,如果一个人购买了牛奶,那么他们很可能会购买面包。 Apriori算法是一种用于挖掘关联规则的算法。它的核心思想是利用先验知识减少搜索空间,从而提高算法的效率。Apriori算法的基本流程如下: 1. 扫描数据集,统计每个项的出现次数。 2. 删除出现次数低于某个阈值的项。 3. 生成候选项集。 4. 扫描数据集,统计候选项集的出现次数。 5. 删除出现次数低于某个阈值的候选项集。 6. 生成更高维度的候选项集,重复步骤4-5。 最终,我们得到一组频繁项集,这些项集的出现频率高于预设的阈值。我们可以利用这些频繁项集来生成关联规则,并计算它们的置信度和支持度。 在Python中,我们可以使用mlxtend库中的apriori函数来实现Apriori算法。具体使用方法可以参考以下示例代码: ```python from mlxtend.frequent_patterns import apriori from mlxtend.frequent_patterns import association_rules import pandas as pd # 加载数据集 data = pd.read_csv('data.csv', header=None) # 将数据集转换为适合apriori函数的形式 def encode_units(x): if x <= 0: return 0 if x >= 1: return 1 return None data = data.applymap(encode_units) # 使用apriori函数挖掘频繁项集 frequent_itemsets = apriori(data, min_support=0.5, use_colnames=True) # 使用association_rules函数生成关联规则 rules = association_rules(frequent_itemsets, metric="lift", min_threshold=1) # 打印关联规则 print(rules) ``` 当然,这只是一个简单的示例,实际上我们在使用Apriori算法时还需要考虑很多细节。如果您对此感兴趣,可以进一步学习相关知识。

“相关推荐”对你有帮助么?

  • 非常没帮助
  • 没帮助
  • 一般
  • 有帮助
  • 非常有帮助
提交
评论 2
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值