关联规则――基于 Python 的 Apriori 算法实现

匿名 (未验证) 提交于 2019-12-02 22:56:40

Apriori 核心思想:通过连接产生候选项与其支持度,然后通过剪枝生成频繁项集。

关键概念:

  • 项集:项的集合。包含 k 个项的项集称为 k 项集,如{a,s,d}是一个3项集。
  • 支持度:项集A、B同时发生的概率。
  • 最小支持度:项集在统计意义上的最低重要性。
  • 置信度:项集A发生,则项集B发生的概率。
  • 最小置信度:关联规则的最低可靠性。
  • 同时满足最小支持度阈值和最小置信度阈值的规则称作强规则。
  • 项集的支持度计数(绝对支持度):项集的出现频率,即所有包含项集的事务计数。
  • 频繁项集:项集的相对支持度满足预定义的最小支持度阈值

实现步骤:

主要思想:找出存在于事务数据集中的最大的频繁项集,再利用得到的最大频繁项集与预先设定的最小置信度阈值生成强关联规则。

Apriori的性质:频繁项集的所有非空子集也必须是频繁项集。

步骤:

  1. 找出所有频繁项集(支持度必须大于等于给定的最小支持度阈值),将连接步和剪枝步互相融合,最终得到最大频繁项集LK

连接步:找到 K 项集。

剪枝步:紧接着连接步,在产生候选项 Ck 的过程中起到减小搜索空间的目的

由频繁项集产生强关联规则:过程1已剔除那些 未超过预定的最小支持度阈值的项集。如果剩下这些规则又满足了预定的最小置信度阈值,那么就挖掘出了强关联规则。


示例:

Apriori 算法:

#-*- coding: utf-8 -*- from __future__ import print_function    #Python3.+ 不需要此项引入 import pandas as pd  #自定义连接函数,用于实现L_{k-1}到C_k的连接 def connect_string(x, ms):   x = list(map(lambda i:sorted(i.split(ms)), x))   l = len(x[0])   r = []   for i in range(len(x)):     for j in range(i,len(x)):       if x[i][:l-1] == x[j][:l-1] and x[i][l-1] != x[j][l-1]:         r.append(x[i][:l-1]+sorted([x[j][l-1],x[i][l-1]]))   return r  #寻找关联规则的函数 def find_rule(d, support, confidence, ms = u'--'):   result = pd.DataFrame(index=['support', 'confidence']) #定义输出结果      support_series = 1.0*d.sum()/len(d) #支持度序列(C1)   column = list(support_series[support_series > support].index) #初步根据支持度筛选(剪枝,得到频繁项集 L1)   k = 0      while len(column) > 1:     k = k+1     print(u'\n正在进行第%s次搜索...' %k)     column = connect_string(column, ms)     print(u'数目:%s...' %len(column))     sf = lambda i: d[i].prod(axis=1, numeric_only = True) #新一批支持度的计算函数(通过相乘得1,确认项集结果[数据已转换为‘0无’,‘1有’的形式,每一项集中元素相乘结果为1,则证明有该项集])          #创建连接数据,这一步耗时、耗内存最严重。当数据集较大时,可以考虑并行运算优化。     d_2 = pd.DataFrame(list(map(sf,column)), index = [ms.join(i) for i in column]).T          support_series_2 = 1.0*d_2[[ms.join(i) for i in column]].sum()/len(d) #计算连接后的支持度(C2)     column = list(support_series_2[support_series_2 > support].index) #新一轮支持度筛选,通过支持度剪枝,得到频繁项集L2     support_series = support_series.append(support_series_2)  #更新支持度序列,此时为(L1+L2)     column2 = []          for i in column: #遍历可能的推理,如{A,B,C}究竟是A+B-->C还是B+C-->A还是C+A-->B?       i = i.split(ms)       for j in range(len(i)):         column2.append(i[:j]+i[j+1:]+i[j:j+1])          cofidence_series = pd.Series(index=[ms.join(i) for i in column2]) #先定义置信度序列,节约计算时间       for i in column2: #计算置信度序列       cofidence_series[ms.join(i)] = support_series[ms.join(sorted(i))]/support_series[ms.join(i[:len(i)-1])]          for i in cofidence_series[cofidence_series > confidence].index: #置信度筛选       result[i] = 0.0       result[i]['confidence'] = cofidence_series[i]       result[i]['support'] = support_series[ms.join(sorted(i.split(ms)))]      result = result.T.sort_values(['confidence','support'], ascending = False) #结果整理,输出(先按‘confidence’降序排列,再按‘support’降序排列)   print(u'\n结果为:')   print(result)      return result


读取文件、执行计算、输出结果:

#-*- coding: utf-8 -*- #使用Apriori算法挖掘菜品订单关联规则 from __future__ import print_function import pandas as pd from apriori import * #导入自行编写的apriori函数(导入以上的 apriori算法代码,文件名‘apriori.py’)  inputfile = '../data/menu_orders.xls' outputfile = '../tmp/apriori_rules.xls' #结果文件 data = pd.read_excel(inputfile, header = None)  print(u'\n转换原始数据至0-1矩阵...') ct = lambda x : pd.Series(1, index = x[pd.notnull(x)]) #转换0-1矩阵的过渡函数(每一项集中元素相乘结果为1,则证明有该集。0-无,1-有) b = map(ct, data.as_matrix()) #用map方式执行 data = pd.DataFrame(list(b)).fillna(0) #实现矩阵转换,空值用0填充 print(u'\n转换完毕。') del b #删除中间变量b,节省内存  support = 0.2 #最小支持度 confidence = 0.5 #最小置信度 ms = '---' #连接符,默认'--',用来区分不同元素,如A--B。需要保证原始表格中不含有该字符  find_rule(data, support, confidence, ms).to_excel(outputfile) #保存结果

lambda 语法:

lambda argument_list:expression

map:

b = map(ct, data.as_matrix()) #用map方式执行, data.as_matrix()每一个元素均进行 ct 操作

错误校正:

result = result.T.sort(['confidence','support'], ascending = False)

出现错误:AttributeError:‘DataFrame’ object has no attribute 'sort'

修改为:

 result = result.T.sort_values(['confidence','support'], ascending = False) 

参考文献:《Python 数据分析与挖掘实战》

易学教程内所有资源均来自网络或用户发布的内容,如有违反法律规定的内容欢迎反馈
该文章没有解决你所遇到的问题?点击提问,说说你的问题,让更多的人一起探讨吧!