一、背景和目标
源于沃尔玛的啤酒和尿布的经典营销案例,把这两个看似并无太大关系的商品联系到一起了。这里就用到了关联算法。我们今天就用关联算法对某餐饮连锁企业的商品进行关联分析,观察用户的消费习惯。
环境:python3.5+pycharm
算法:Apriori
二、数据采集和处理
原始数据是长这样的,不过这样的数据并不利于进行关联分析:
不过阿里云分析型数据库ADB提供了强大的group_concat函数,如果是SQLServer可以使用String_agg函数实现(分成多行可以用 from xxx cross apply string_split(字段名,',')实现),类似于分组效果,可以把聚合之后的查询结果放在一起。
用法:select 日期,订单,group_concat(产品) from 表 group by 日期,订单
具体结果如下:
三、过程
a和b的支持度support(a->b)=P(a&b)=support_count(a&b)/total_count(a),最小支持度设置为0.2
a和b的置信度confidence(a->b)=P(b|a)=support_count(a&b)/support_count(a),最小置信度设置为0.5
概念:如果项集I的支持度大于最小支持度阈值,则I为频繁项集,频繁项集的非空子集也是频繁项集。
a.计算频繁项集过程:
1.连接
以上面9个订单为例,123002这个产品在4个订单出现,所以p(123002)=4/9,以此类推得到C1,
产品 | 概率 | 是否大于最小支持度 |
123002 | 4/9 | 是 |
131013 | 5/9 | 是 |
110202 | 2/9 | 否 |
….. | ….. | ….. |
2.剪枝和再连接
把小于最小支持度(设置为0.2)的排除了,就得到了频繁项集L1,然后L1和L1自相连,得到C2
产品 | 概率 | 是否大于最小支持度 |
123,002,131,013 | 4/9 | 是 |
123,002,110,202 | 1/9 | 否 |
….. | ….. | ….. |
排除之后得到二项集L2,三项集L3知道找到最大频繁项集Ln.......
b.计算置信度过程
p(123002|131013)=p(123002&131013)/p(131013)=(4/9)/(5/9)=0.8
c.结论:
131013->123002 最小支持度为4/9 ,置信度为0.8
同时点这两个产品的概率为4/9,点了131013之后再点123002的概率是0.8,而且同时满足最小支持度和最小置信度,所以这两个产品之间有很强的关联关系
四、代码
这里贴上张良均老师的Apriori代码,便于理解。。
#-*- coding: utf-8 -*-
from __future__ import print_function
import pandas as pd
#自定义连接函数,用于实现L_{k-1}到C_k的连接
def connect_string(x, ms):
x = list(map(lambda i:sorted(i.split(ms)), x))
l = len(x[0])
r = []
for i in range(len(x)):
for j in range(i,len(x)):
if x[i][:l-1] == x[j][:l-1] and x[i][l-1] != x[j][l-1]:
r.append(x[i][:l-1]+sorted([x[j][l-1],x[i][l-1]]))
return r
#寻找关联规则的函数
def find_rule(d, support, confidence, ms = u'--'):
result = pd.DataFrame(index=['support', 'confidence']) #定义输出结果
support_series = 1.0*d.sum()/len(d) #支持度序列
column = list(support_series[support_series > support].index) #初步根据支持度筛选
k = 0
while len(column) > 1:
k = k+1
print(u'\n正在进行第%s次搜索...' %k)
column = connect_string(column, ms)
print(u'数目:%s...' %len(column))
sf = lambda i: d[i].prod(axis=1, numeric_only = True) #新一批支持度的计算函数
#创建连接数据,这一步耗时、耗内存最严重。当数据集较大时,可以考虑并行运算优化。
d_2 = pd.DataFrame(list(map(sf,column)), index = [ms.join(i) for i in column]).T
support_series_2 = 1.0*d_2[[ms.join(i) for i in column]].sum()/len(d) #计算连接后的支持度
column = list(support_series_2[support_series_2 > support].index) #新一轮支持度筛选
support_series = support_series.append(support_series_2)
column2 = []
for i in column: #遍历可能的推理,如{A,B,C}究竟是A+B-->C还是B+C-->A还是C+A-->B?
i = i.split(ms)
for j in range(len(i)):
column2.append(i[:j]+i[j+1:]+i[j:j+1])
cofidence_series = pd.Series(index=[ms.join(i) for i in column2]) #定义置信度序列
for i in column2: #计算置信度序列
cofidence_series[ms.join(i)] = support_series[ms.join(sorted(i))]/support_series[ms.join(i[:len(i)-1])]
for i in cofidence_series[cofidence_series > confidence].index: #置信度筛选
result[i] = 0.0
result[i]['confidence'] = cofidence_series[i]
result[i]['support'] = support_series[ms.join(sorted(i.split(ms)))]
result = result.T.sort(['confidence','support'], ascending = False) #结果整理,输出
print(u'\n结果为:')
print(result)
return result