机器学习--FP-grownth

Apriori算法可以用来发现数据集的频繁项以及关联规则,当发现频繁项时,每计算一个频繁项支持度时,需要计算遍历一遍数据集,当数据集较大时效率不高。

FP-grownth算法:扫描数据集两次,第一次构建FP树,从FP树中挖掘频繁项集。

FP频繁模式(Frequent Pattern)

树节点给出单个元素以及单个元素出现的次数,每个项可以出现多次,项集通过路径给出。从叶子到根为一个项集以及整个项集出现的次数,例如rz出现1次,tsyxz出现两次,z出现5次。

1.定义FP数据结构

class treeNode:
    def __init__(self, nameValue, numOccur, parentNode):
        self.name = nameValue
        self.count = numOccur
        self.nodeLink = None
        self.parent = parentNode      #needs to be updated
        self.children = {} 
    
    def inc(self, numOccur):
        self.count += numOccur
        
    def disp(self, ind=1):
        print '  '*ind, self.name, ' ', self.count
        for child in self.children.values():
            child.disp(ind+1)

name元素值  count出现次数   nodeLink连接相似项 parent 指向父节点指针  children叶子结点

2.FP树的构建

头指针表指向第一个实例元素的位置,可以快速访问给定元素类型的所有元素。

遍历数据集统计每个元素项的频率,去掉不满足最小支持度的元素项。读入每一个项集,过滤以及基于绝对出现频率来排序构建事务序列,从空集开始,若已存在现有元素,增加现有元素的值,如果不存在则向树中添加一个分支。

从空集开始,添加zr  z不存在添加一个新分支 计数=1  r也不存在在z之后添加一个新分支计数为1,继续添加zxyst  z已经存在计数加一,xyst依次新建分支添加。

def createTree(dataSet, minSup=1): #create FP-tree from dataset but don't mine
    headerTable = {}
    #go over dataSet twice
    for trans in dataSet:#first pass counts frequency of occurance
        for item in trans:
            #dataSet[trans]返回该项集总次数	dataSet字典类型	
            headerTable[item] = headerTable.get(item, 0) + dataSet[trans]
    #过滤掉出现次数小于minSup的项		
    for k in list(headerTable.keys()):  #remove items not meeting minSup
        if headerTable[k] < minSup: 
            del(headerTable[k])
    freqItemSet = set(headerTable.keys())
    #print 'freqItemSet: ',freqItemSet
    if len(freqItemSet) == 0: return None, None  #if no items meet min support -->get out
    for k in headerTable:
	    #头指针表 元素值 以及第一个元素的位置链接
        headerTable[k] = [headerTable[k], None] #reformat headerTable to use Node link 
    #print 'headerTable: ',headerTable
	#新建一个空集
    retTree = treeNode('Null Set', 1, None) #create tree
	#key value
    for tranSet, count in dataSet.items():  #go through dataset 2nd time
        localD = {}
        for item in tranSet:  #put transaction items in order
		    #过滤掉支持度小的项
            if item in freqItemSet:
                localD[item] = headerTable[item][0]
        if len(localD) > 0:
		    #排序
            orderedItems = [v[0] for v in sorted(localD.items(), key=lambda p: p[1], reverse=True)]
            updateTree(orderedItems, retTree, headerTable, count)#populate tree with ordered freq itemset
    return retTree, headerTable #return tree and header table

输入dataSet为字典类型 key为项集   value为次数。

首先计算每个项以及出现的次数用字典来保存

for trans in dataSet:#first pass counts frequency of occurance
        for item in trans:
            #dataSet[trans]返回该项集总次数    dataSet字典类型    
            headerTable[item] = headerTable.get(item, 0) + dataSet[trans]

过滤掉不符合最低支持度的项,返回该频繁项集合:

for k in headerTable.keys():  #remove items not meeting minSup
        if headerTable[k] < minSup: 
            del(headerTable[k])
    freqItemSet = set(headerTable.keys())

从字典中删除key时,需要转换成list,否则会报错:

修改头指针表  key为项  value为该项第一个出现的位置

新建一个空集

retTree = treeNode('Null Set', 1, None)

开始遍历数据集,取出每一个项集,例如zyxwvuts,如果项出现在频繁项集合中,则记录到localD即 zyxts 

for tranSet, count in dataSet.items():  #go through dataset 2nd time
        localD = {}
        for item in tranSet:  #put transaction items in order
            #过滤掉支持度小的项
            if item in freqItemSet:
                localD[item] = headerTable[item][0]

将localD排序为zxyst

orderedItems = [v[0] for v in sorted(localD.items(), key=lambda p: p[1], reverse=True)]

将排序后的事务序列添加进FP树:

updateTree(orderedItems, retTree, headerTable, count)

def updateTree(items, inTree, headerTable, count):
    #如果第一个项是树的孩子,数量加一
    if items[0] in inTree.children:#check if orderedItems[0] in retTree.children
        inTree.children[items[0]].inc(count) #incrament count
	#新建一个节点	
    else:   #add items[0] to inTree.children
        inTree.children[items[0]] = treeNode(items[0], count, inTree)
		#更新头指针表
        if headerTable[items[0]][1] == None: #update header table 
            headerTable[items[0]][1] = inTree.children[items[0]]
        else:
            updateHeader(headerTable[items[0]][1], inTree.children[items[0]])
    if len(items) > 1:#call updateTree() with remaining ordered items
        updateTree(items[1::], inTree.children[items[0]], headerTable, count)

之前树中已有zr  添加zxyst时,首先判断第一项z是否为上一个节点的子节点,若是则说明该项已经存在,则更新数量

if items[0] in inTree.children:#check if orderedItems[0] in retTree.children
        inTree.children[items[0]].inc(count)

如果不存在则直接新建一个节点

inTree.children[items[0]] = treeNode(items[0], count, inTree)

如果头指针表为空则将头指针指向该新建节点:

 if headerTable[items[0]][1] == None: #update header table 
            headerTable[items[0]][1] = inTree.children[items[0]]

如果头指针不为空,说明该新增节点不是第一个出现的项节点,则从头指针headerTable[items[0]][1]开始依次遍历找到某个节点nodeLink==Node即该节点是该项出现的最后一个节点,将该节点的nodeLink指向新增节点inTree.children[items[0]]

def updateHeader(nodeToTest, targetNode):   #this version does not use recursion
    while (nodeToTest.nodeLink != None):    #Do not use recursion to traverse a linked list!
        nodeToTest = nodeToTest.nodeLink
    nodeToTest.nodeLink = targetNode

接着继续放入其他项到FP树中xyst

if len(items) > 1:#call updateTree() with remaining ordered items
        updateTree(items[1::], inTree.children[items[0]], headerTable, count)

测试如下: 最小支持度 为3和1时

   

3.FP树中挖掘频繁项集

从FP树中抽取条件模式基,利用条件模式基来构建FP树,不断迭代,直到树中只有一个元素,返回

条件模式基:以查找元素结尾的路经集合,计数值为起始元素的计数值。

r的条件模式基:  z 1      zxy 1       xs  1

       以头指针表为基准开始遍历,每一个元素开始沿nodeLink开始遍历,直到nodeLink==Node, 在这过程中每遇见一个元素x,则根据parent指针向上回溯,记录过程的所有元素作为x的一个条件模式基。

def ascendTree(leafNode, prefixPath): #ascends from leaf node to root
    if leafNode.parent != None:
        prefixPath.append(leafNode.name)
        ascendTree(leafNode.parent, prefixPath)
    
def findPrefixPath(basePat, treeNode): #treeNode comes from header table
    condPats = {}
    while treeNode != None:
        prefixPath = []
        ascendTree(treeNode, prefixPath)
        if len(prefixPath) > 1: 
            condPats[frozenset(prefixPath[1:])] = treeNode.count
        treeNode = treeNode.nodeLink
    return condPats

 ascendTree沿某个节点向父节点回溯,保存所有遇见的元素到prefixPath中

findPrefixPath 传入某个头指针表的元素  沿nodeLink往下遍历,没遇见一个元素treeNode,则调用ascendTree来获取该节点的前缀路径,放入到字典中  key为frozenset(prefixPath[1:]  prefixPath[0]为查找节点不需要放入  value为该查找元素的count

def mineTree(inTree, headerTable, minSup, preFix, freqItemList):
    #排序头指针表
    bigL = [v[0] for v in sorted(headerTable.items(), key=lambda p: p[1])]#(sort header table)
	#遍历头指针表的每一个元素
    for basePat in bigL:  #start from bottom of header table
        newFreqSet = preFix.copy()
        newFreqSet.add(basePat)
        #print 'finalFrequent Item: ',newFreqSet    #append to set
        freqItemList.append(newFreqSet)
		#返回该元素的条件模式基集合
        condPattBases = findPrefixPath(basePat, headerTable[basePat][1])
        #print 'condPattBases :',basePat, condPattBases
        #2. construct cond FP-tree from cond. pattern base
		#将条件模式基集合作为输入,继续创建FP树
        myCondTree, myHead = createTree(condPattBases, minSup)
        #print 'head from conditional tree: ', myHead
		#继续递归调用
        if myHead != None: #3. mine cond. FP-tree
            #print 'conditional tree for: ',newFreqSet
            #myCondTree.disp(1)            
            mineTree(myCondTree, myHead, minSup, newFreqSet, freqItemList)

排序头指针表,遍历每一个元素,返回该元素的条件模式基,利用这些基作为输入继续构建FP树直到树中只有一个元素,此时继续迭代下一个元素。

4.从新闻网站点击流中挖掘

数据格式:

每一行代表用户看过的新闻报道id list  找出至少被10万人看过的新闻报道Id或者报道集合有哪些

d =  [line.split() for line in open('kosarak.dat').readlines()]
s = fpGrowth.createInitSet(d)
t, h = fpGrowth.createTree(s, 100000)
fl = []
fpGrowth.mineTree(t, h, 100000, set([]), fl)

FP-growth可以从大量数据集中快速找到频繁集项。

  • 0
    点赞
  • 0
    收藏
    觉得还不错? 一键收藏
  • 0
    评论
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值