Python数据挖掘学习笔记(7)频繁模式挖掘算法----FP-growth

一、相关原理

       FP-Growth算法是韩嘉炜等人在2000年提出的关联分析算法,它采取如下分治策略:将提供频繁项集的数据库压缩到一棵频繁模式树(FP-tree),但仍保留项集关联信息。在算法中使用了一种称为频繁模式树(Frequent Pattern Tree)的数据结构。FP-tree是一种特殊的前缀树,由频繁项头表和项前缀树构成。FP-Growth算法基于以上的结构加快整个挖掘过程。

       FP-growth算法只需要对数据库进行了两次扫描,而Apriori算法对于每个潜在的频繁项集都会扫描数据集判定给定模式是否频繁,因此FP-growth算法的速度要比Apriori算法快。在小规模数据集上,这不是什么问题,但是当处理大规模数据集时,就会产生很大的区别。大致流程如下图:

                                        

       关于FP-growth算法需要注意的两点是:

     (1)该算法采用了与Apriori完全不同的方法来发现频繁项集

     (2)该算法虽然能更为高效地发现频繁项集,但不能用于发现关联规则。

       从FP-growth算法挖掘频繁项集这个流程图中可以看出,FP-growth算法主要有两个步骤,即构建FP树以及从FP树中挖掘频繁项集。

       其他相关原理可查看相关文章,推荐机器学习实战一书。

二、编写代码

1、数据初始化方法:

#创建数据集
def loadSimpDat():
    simpDat = [['r', 'z', 'h', 'j', 'p'],
               ['z', 'y', 'x', 'w', 'v', 'u', 't', 's'],
               ['z'],
               ['r', 'x', 'n', 'o', 's'],
               ['y', 'r', 'x', 'z', 'q', 't', 'p'],
               ['y', 'z', 'x', 'e', 'q', 's', 't', 'm']]
    return simpDat

#数据格式化
def createInitSet(dataSet):
    retDict = {}
    for trans in dataSet:
        #print(trans)
        fset = frozenset(trans)
        #print(fset)
        retDict.setdefault(fset, 0) #返回指定键的值,如果没有则添加一个键
        #print(retDict)
        retDict[fset] += 1
        #print(retDict)
    return retDict

2、FP的数据结构类:

#FP树的数据结构类
class treeNode:
    def __init__(self, nameValue, numOccur, parentNode):
        self.name = nameValue       #名字变量
        self.count = numOccur       #计数变量(频率)
        self.nodeLink = None        #链接相似元素项
        self.parent = parentNode    #当前父节点
        self.children = {}          #用于存放子节点
   
    def inc(self, numOccur): #对count变量增加给定值
        self.count += numOccur 
       
    def disp(self, ind=1):  #将树以文本形式显示,主要是方便调试。
        print(' '*ind, self.name, ' ', self.count)
        for child in self.children.values():
            child.disp(ind+1)         #子节点向右缩减

3、创建FP树的相关方法:

#更新头指针表
def updateHeader(nodeToTest, targetNode):  
    while (nodeToTest.nodeLink != None):  
        nodeToTest = nodeToTest.nodeLink
    nodeToTest.nodeLink = targetNode

#FP树的生长函数
def updateTree(items, myTree, headerTable, count):
    if items[0] in myTree.children:  
        myTree.children[items[0]].inc(count)
    else:  
        myTree.children[items[0]] = treeNode(items[0], count, myTree)
        if headerTable[items[0]][1] == None:
            headerTable[items[0]][1] = myTree.children[items[0]]
        else:
            updateHeader(headerTable[items[0]][1], myTree.children[items[0]])
    if len(items) > 1:  
        updateTree(items[1:], myTree.children[items[0]], headerTable, count)

#创建FP树,默认最小支持度为1,将根据支持度对数据进行第一次过滤
def createTree(dataSet, minSup=1):
    headerTable = {}
    #第一次遍历数据集, 记录每个数据项的支持度
    for trans in dataSet:
        for item in trans:
            headerTable[item] = headerTable.get(item, 0) + 1
   
    #根据最小支持度过滤
    lessThanMinsup = list(filter(lambda k:headerTable[k] < minSup, headerTable.keys()))
    for k in lessThanMinsup:
        del(headerTable[k])
    freqItemSet = set(headerTable.keys())
   
    #如果所有数据都不满足最小支持度,返回None, None
    if len(freqItemSet) == 0:
        return None, None
    for k in headerTable:
        headerTable[k] = [headerTable[k], None]
        myTree = treeNode('φ', 1, None)
 
    #第二次遍历数据集,构建fp-tree
    for tranSet, count in dataSet.items():
        #根据最小支持度处理一条训练样本,key:样本中的一个样例,value:该样例的的全局支持度
        localD = {}
        for item in tranSet:
            if item in freqItemSet:
                localD[item] = headerTable[item][0]
        if len(localD) > 0:
            #根据全局频繁项对每个事务中的数据进行排序,等价于 order by p[1] desc, p[0] desc
            orderedItems = [v[0] for v in sorted(localD.items(), key=lambda p:(p[1],p[0]), reverse=True)]
            updateTree(orderedItems, myTree, headerTable, count)
    return myTree, headerTable

4、从FP树中获得条件模式基

#迭代上溯整棵树
def ascendTree(leafNode, prefixPath):
    if leafNode.parent != None:
        prefixPath.append(leafNode.name)
        ascendTree(leafNode.parent, prefixPath)
#遍历链表
def findPrefixPath(basePat, headerTable):
    condPats = {}
    treeNode = headerTable[basePat][1]
    while treeNode != None:
        prefixPath = []
        ascendTree(treeNode, prefixPath)
        if len(prefixPath) > 1:
            condPats[frozenset(prefixPath[1:])] = treeNode.count
        treeNode = treeNode.nodeLink
    return condPats

5、创造条件FP树

def mineTree(inTree, headerTable, minSup=1, preFix=set([]), freqItemList=[]):
    #排序minSup asc, value asc
    bigL = [v[0] for v in sorted(headerTable.items(), key=lambda p: (p[1][0],p[0]))]
    for basePat in bigL:
        newFreqSet = preFix.copy()
        newFreqSet.add(basePat)
        freqItemList.append(newFreqSet)
        # 通过条件模式基找到的频繁项集
        condPattBases = findPrefixPath(basePat, headerTable)
        myCondTree, myHead = createTree(condPattBases, minSup)
        if myHead != None:
            print('condPattBases: ', basePat, condPattBases)
            myCondTree.disp()
            print('*' * 30)
            mineTree(myCondTree, myHead, minSup, newFreqSet, freqItemList)

6、运行:

#初始化数据集
simpDat = loadSimpDat()
dictDat = createInitSet(simpDat)
freqItems=[] #存储频繁项集
#创建FP树,支持度设为3
myFPTree,myheader = createTree(dictDat, 3)
#创建条件FP树,支持度设为2
mineTree(myFPTree, myheader, 2 ,set([]),freqItems)
print('频繁项集为'+str(freqItems))

7、运行结果:

condPattBases:XXXX是频繁项的前缀路径,下面的是条件FP树。

三、参考资料

1、Harrington P , 李锐等. 机器学习实战[M]. 人民邮电出版社, 2013.

2、https://www.bilibili.com/video/av40754697 (推荐购买完整版)

3、https://blog.csdn.net/dq_dm/article/details/38111097

  • 4
    点赞
  • 14
    收藏
    觉得还不错? 一键收藏
  • 0
    评论

“相关推荐”对你有帮助么?

  • 非常没帮助
  • 没帮助
  • 一般
  • 有帮助
  • 非常有帮助
提交
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值