Apriori算法是通过限制候选产生发现频繁项集。总的来说,Apriori算法其实效率并不高,大规模数据计算的时候,需要考虑性能问题。
code + data可见:mattzheng/AprioriDemo
盗图盗图:
在R语言里面有非常好的package,可见我之前的博客:
R语言实现关联规则与推荐算法(学习笔记)
该packages能够实现以下一些可视化:
但是好像Python里面没有这样封装比较好的库…搜刮了一下,发现很多人写了,但是没有可视化模块,不过先拿着用呗。
笔者参考这两位大神的作品:
当然也会结合今日头条数据来做,之前做过一个练习,可见我之前博客:
练习题|基于今日头条开源数据的词共现、新热词发现、短语发现
因为该大神写的时候用得py2,我现在习惯py3;同时对一些细节进行一些调整。主要以介绍案例为主。
整体来看,效率还是很不错的,要比第二款效率高。
runApriori(inFile, minSupport, minConfidence)
输入的内容有三样:
- inFile:数据集输入,迭代器
- minSupport:最小支持度阈值,作者推荐:0.1-0.2之间
- minConfidence:最小置信度阈值,作者推荐:0.5-0.7之间
输出内容两样:
- items ,支持度表,形式为:(tuple, support),一个词的支持度、一对词的支持度【无指向】
- rules ,置信度表,形式为((pretuple, posttuple), confidence),(起点词,终点词),置信度【有指向】
为了更便于使用,同时笔者改编了一个函数 dataFromFile + 新写了一个函数 transferDataFrame。
dataFromFile(fname,extra = False)
作者函数中只能从外部读入,如果笔者要对数据集做点操作,就可以使用extra = True,当然只适用dataframe,可见下面的今日头条数据例子。
transferDataFrame(items, rules,removal = True)
items、rules计算出来之后,作者只是print出来,并没有形成正规的格式输出,这里写了一个变成dataframe的格式。可见下面例子的格式。
同时,这边的removal =True,是因为会出现:‘A->B’,‘B->A’的情况,这边True就是只保留一个。
作者的数据为,而且可以支持不对齐、不等长:
inFile = dataFromFile('INTEGRATED-DATASET.csv',extra = False) minSupport = 0.15 minConfidence = 0.6 items, rules = runApriori(inFile, minSupport, minConfidence) # ------------ print函数 ------------ printResults(items, rules) # ------------ dataframe------------ items_data,rules_data = transferDataFrame(items, rules)
这里的支持度、置信度都还挺高的,得出的结果:
items_data的支持度的表格,其中Len,代表词表中的词个数。
rules_data 的置信度表格,指向为word_x->word_y
今日头条的数据处理,主要参考上一篇练习题。然后把二元组的内容,截取前800个,放在此处。
其中第一列为共现频数,其他为共现词,在这里面不用第一列共现频数。
data = pd.read_csv('CoOccurrence_data_800.csv',header = None) inFile = dataFromFile(data[[1,2]],extra = True) data_iter = dataFromFile(data[[1,2]],extra = True) #list(inFile) minSupport = 0.0 minConfidence = 0.0 items, rules = runApriori(inFile, minSupport, minConfidence) print('--------items number is: %s , rules number is : %s--------'%(len(items),len(rules))) # ------------ print函数 ------------ printResults(items, rules) # ------------ dataframe------------ items_data,rules_data = transferDataFrame(items, rules)
此时,因为词语与词语之间的关系很稀疏,支持度与置信度都不会高的,所以练习题中要把两个比例都设置为0比较好。
items_data的支持度的表格,其中Len,代表词表中的词个数。
rules_data 的置信度表格,指向为word_x->word_y
.
用Pandas写的,效率在生成频繁集的时候会爆炸,所以合理选择支持度很重要。
大神写的很服从中文环境,所以不用改啥,给赞!
所使用的数据比较规则:
# ------------ 官方 ------------ d = pd.read_csv('apriori.txt', header=None, dtype = object) d = ToD(d) support = 0.06 #最小支持度 confidence = 0.75 #最小置信度 output = find_rule(d, support, confidence) output.to_excel('rules.xls')
大神已经整理好结果,可见:
今日头条的数据处理,主要参考上一篇练习题。然后把二元组的内容,截取前800个,放在此处。
其中第一列为共现频数,其他为共现词,在这里面不用第一列共现频数。
# ------------自己 ------------ data = pd.read_csv('CoOccurrence_data_800.csv',header = None) support = 0.002 #最小支持度 confidence = 0.0 #最小置信度 d = ToD(data[[1,2]]) output = find_rule(d, support, confidence)
因为词条之间非常稀疏,支持度与置信度需要设置非常小,如果support设置为0的话,又会超级慢,笔者实验的数据,支持度比较合适在0.002。
最终输出的结果如下: