糖尿病康复,内容丰富有趣,生活中的好帮手!
糖尿病康复 > [Python数据挖掘]第8章 中医证型关联规则挖掘

[Python数据挖掘]第8章 中医证型关联规则挖掘

时间:2024-05-11 08:17:56

相关推荐

[Python数据挖掘]第8章 中医证型关联规则挖掘

一、背景和挖掘目标

二、分析方法与过程

1、数据获取

2、数据预处理

1.筛选有效问卷(根据表8-6的标准)

共发放1253份问卷,其中有效问卷数为930

2.属性规约

3.数据变换

'''聚类离散化,最后的result的格式为:1 2 3 4A0 0.178698 0.257724 0.351843An 240 356.000000 281.000000 53.000000即(0, 0.178698]有240个,(0.178698, 0.257724]有356个,依此类推。'''from __future__ import print_functionimport pandas as pdfrom sklearn.cluster import KMeans #导入K均值聚类算法typelabel ={u'肝气郁结证型系数':'A', u'热毒蕴结证型系数':'B', u'冲任失调证型系数':'C', u'气血两虚证型系数':'D', u'脾胃虚弱证型系数':'E', u'肝肾阴虚证型系数':'F'}k = 4 #需要进行的聚类类别数#读取数据并进行聚类分析data = pd.read_excel('data/data.xls') #读取数据keys = list(typelabel.keys())result = pd.DataFrame()if __name__ == '__main__': #判断是否主窗口运行,如果是将代码保存为.py后运行,则需要这句,如果直接复制到命令窗口运行,则不需要这句。for i in range(len(keys)):#调用k-means算法,进行聚类离散化print(u'正在进行“%s”的聚类...' % keys[i])kmodel = KMeans(n_clusters = k, n_jobs = 4) #n_jobs是并行数,一般等于CPU数较好kmodel.fit(data[[keys[i]]].as_matrix()) #训练模型 r1 = pd.DataFrame(kmodel.cluster_centers_, columns = [typelabel[keys[i]]]) #聚类中心r2 = pd.Series(kmodel.labels_).value_counts() #分类统计r2 = pd.DataFrame(r2, columns = [typelabel[keys[i]]+'n']) #转为DataFrame,记录各个类别的数目r = pd.concat([r1, r2], axis = 1).sort_values(typelabel[keys[i]]) #匹配聚类中心和类别数目r.index = [1, 2, 3, 4]r[typelabel[keys[i]]] = pd.rolling_mean(r[typelabel[keys[i]]], 2) #rolling_mean()用来计算相邻2列的均值,以此作为边界点。r[typelabel[keys[i]]][1] = 0.0 #这两句代码将原来的聚类中心改为边界点。result = result.append(r.T)result.to_excel('tmp/data_processed.xls')

3、模型构建

首先准备apriori.py,代码没看懂,不过可以直接调用

#apriori代码from __future__ import print_functionimport pandas as pd#自定义连接函数,用于实现L_{k-1}到C_k的连接def connect_string(x, ms):x = list(map(lambda i:sorted(i.split(ms)), x))l = len(x[0])r = []for i in range(len(x)):for j in range(i,len(x)):if x[i][:l-1] == x[j][:l-1] and x[i][l-1] != x[j][l-1]:r.append(x[i][:l-1]+sorted([x[j][l-1],x[i][l-1]]))return r#寻找关联规则的函数def find_rule(d, support, confidence, ms = u'--'):result = pd.DataFrame(index=['support', 'confidence']) #定义输出结果 support_series = 1.0*d.sum()/len(d) #支持度序列column = list(support_series[support_series > support].index) #初步根据支持度筛选k = 0while len(column) > 1:k = k+1print(u'\n正在进行第%s次搜索...' %k)column = connect_string(column, ms)print(u'数目:%s...' %len(column))sf = lambda i: d[i].prod(axis=1, numeric_only = True) #新一批支持度的计算函数#创建连接数据,这一步耗时、耗内存最严重。当数据集较大时,可以考虑并行运算优化。d_2 = pd.DataFrame(list(map(sf,column)), index = [ms.join(i) for i in column]).Tsupport_series_2 = 1.0*d_2[[ms.join(i) for i in column]].sum()/len(d) #计算连接后的支持度column = list(support_series_2[support_series_2 > support].index) #新一轮支持度筛选support_series = support_series.append(support_series_2)column2 = []for i in column: #遍历可能的推理,如{A,B,C}究竟是A+B-->C还是B+C-->A还是C+A-->B?i = i.split(ms)for j in range(len(i)):column2.append(i[:j]+i[j+1:]+i[j:j+1])cofidence_series = pd.Series(index=[ms.join(i) for i in column2]) #定义置信度序列for i in column2: #计算置信度序列cofidence_series[ms.join(i)] = support_series[ms.join(sorted(i))]/support_series[ms.join(i[:len(i)-1])]for i in cofidence_series[cofidence_series > confidence].index: #置信度筛选result[i] = 0.0result[i]['confidence'] = cofidence_series[i]result[i]['support'] = support_series[ms.join(sorted(i.split(ms)))]result = result.T.sort_values(['confidence','support'], ascending = False) #结果整理,输出print(u'\n结果为:')print(result)return result

from __future__ import print_functionimport pandas as pdfrom apriori import * #导入自行编写的apriori函数import time #导入时间库用来计算用时data = pd.read_csv('data/apriori.txt', header = None, dtype = object) #读取数据start = time.clock() #计时开始print(u'\n转换原始数据至0-1矩阵...')ct = lambda x : pd.Series(1, index = x[pd.notnull(x)]) #转换0-1矩阵的过渡函数b = map(ct, data.as_matrix()) #用map方式执行data = pd.DataFrame(list(b)).fillna(0) #实现矩阵转换,空值用0填充end = time.clock() #计时结束print(u'\n转换完毕,用时:%0.2f秒' %(end-start))del b #删除中间变量b,节省内存support = 0.06 #最小支持度confidence = 0.75 #最小置信度ms = '---' #连接符,默认'--',用来区分不同元素,如A--B。需要保证原始表格中不含有该字符start = time.clock() #计时开始print(u'\n开始搜索关联规则...')find_rule(data, support, confidence, ms)end = time.clock() #计时结束print(u'\n搜索完成,用时:%0.2f秒' %(end-start))

如果觉得《[Python数据挖掘]第8章 中医证型关联规则挖掘》对你有帮助,请点赞、收藏,并留下你的观点哦!

本内容不代表本网观点和政治立场,如有侵犯你的权益请联系我们处理。
网友评论
网友评论仅供其表达个人看法,并不表明网站立场。