def majorityCnt(classList):
‘’’
在一个列表中返回最多的值
‘’’
classCount = {}
for vote in classList:
if vote not in classCount.keys():
classCount[vote] = 0
classCount[vote] += 1
sortedClassCount = sorted(classCount.item(),key = operator.itemgetter(1),reverse = True)
return sortedClassCount[0][0]
def createTree(dataSet,labels):
‘’’
构建决策树
决策树递归过程:开始一直无法理解迭代过程中有一个if-return语句,如果直接满足条件不是直接会退出程序吗?
在网上找到一个非常好的答案帮我解决了这个问题,一句话就是return之前需要将程序运行完毕,例如如下函数
def fact(n):
if n==1:
return 1
return n * fact(n - 1)
迭代过程如下:
===> fact(5)
===> 5 * fact(4)
===> 5 * (4 * fact(3))
===> 5 * (4 * (3 * fact(2)))
===> 5 * (4 * (3 * (2 * fact(1))))
在return之前,n * fact(n - 1)必须要计算完毕
本程序中的createTree(dataSet,labels)函数与之类似,在return之前,myTree[bestFeatLabel][value] = createTree(splitDataSet(dataSet,bestFeat,value),subLabels)必须计算完毕
设dataSet为create为:
[[1,1,‘yes’], lebels为[‘no surfacing’,‘flippers’]
[1,1,‘yes’],
[1,0,‘no’ ],
[0,1,‘no’ ],
[0,1,‘no’ ]]
第一次迭代有两个分支1:MyTree[‘no surfacing’][0] = createTree([[1,‘no’],[1,‘no’])
2:MyTree[‘no surfacing’][1] = createTree([[1,‘yes’],[1,‘yes’],[0,‘no’])
分支1进入一次迭代直接满足条件classList.count(classList[0]) == len(classList),直接等于’no’
分支2进入一次迭代后有两个分支2_1:MyTree[‘no surfacing’][1][‘flippers’][0] = createTree([[‘no’]])
2_1:MyTree[‘no surfacing’][1][‘flippers’][1] = createTree([[‘yes’],['yes]])
2_1,2_2满足第一条语,2_1返回’no’,2_2返回’yes’,最后计算结果
MyTree[‘no surfacing’][0] = ‘no’
MyTree[‘no surfacing’][1][‘flippers’][0] = ‘no’
MyTree[‘no surfacing’][1][‘flippers’][1] = ‘yes’
即{‘no surfacing’{0:‘no’,1:{‘flippers’:{0:‘no’,1:‘yes’}}}}
‘’’
#dataSet的’yes’ or 'no’集合,在本书中的测试例子中第一次迭代时classList = [‘yes’,‘yes’,‘no’,‘no’]
classList = [example[-1] for example in dataSet]
#如果集合全部一样,返回这个值
if classList.count(classList[0]) == len(classList):
return classList[0]
#如果特征值消耗完,返回最多的值
if len(dataSet[0]) == 1:
return majorityCnt(classList)
#首先使用信息增益值最大的特征值进行分类
bestFeat = chooseBestFeatureToSplit(dataSet)
#该特征值的标签
bestFeatLabel = labels[bestFeat]
#用字典来表示决策树
myTree = {bestFeatLabel:{}}
#将该特征值的标签从标签列表中删除
del(labels[bestFeat])
#求出特征值在每组数据中的值
featValues = [example[bestFeat] for example in dataSet]
uniqueVals = set(featValues)
#依据特征值的值来划分数据集
for value in uniqueVals:
subLabels = labels[:]
myTree[bestFeatLabel][value] = createTree(splitDataSet(dataSet,bestFeat,value),subLabels)
return myTree
def classify(inputTree,featLabels,testVec):
‘’’
利用决策树对给定的特征值的对象进行分类
‘’’
#树的一号决策点,测试决策树中是’no surfacing’
firstStr = list(inputTree.keys())[0]
#测试决策树中是{0:‘no’,1:{‘flippers’:{0:‘no’,1:‘yes’}}}
secoundDict = inputTree[firstStr]
#返回’no sufacing’在标签列表中的位置
featIndex = featLabels.index(firstStr)
#进入循环,如果到达叶节点,返回分类,如果没有到达,迭代
for key in secoundDict.keys():
if testVec[featIndex] == key:
if type(secoundDict[key]).__name__ == ‘dict’:
classLabel = classify(secoundDict[key],featLabels,testVec)
else:classLabel = secoundDict[key]
return classLabel
def storeTree(inputTree,filename):
‘’’
用于将构造好的决策树存储到文件中
‘’’
fw = open(filename,‘wb’)
pickle.dump(inputTree,fw)
fw.close()
def grabTree(filename):
‘’’
用于获取文件中存储的决策树
最后
🍅 硬核资料:关注即可领取PPT模板、简历模板、行业经典书籍PDF。
🍅 技术互助:技术群大佬指点迷津,你的问题可能不是问题,求资源在群里喊一声。
🍅 面试题库:由技术群里的小伙伴们共同投稿,热乎的大厂面试真题,持续更新中。
🍅 知识体系:含编程语言、算法、大数据生态圈组件(Mysql、Hive、Spark、Flink)、数据仓库、Python、前端等等。
小编13年上海交大毕业,曾经在小公司待过,也去过华为、OPPO等大厂,18年进入阿里一直到现在。
深知大多数初中级Python工程师,想要提升技能,往往是自己摸索成长或者是报班学习,但自己不成体系的自学效果低效又漫长,而且极易碰到天花板技术停滞不前!
因此收集整理了一份《2024年Python爬虫全套学习资料》送给大家,初衷也很简单,就是希望能够帮助到想自学提升又不知道该从何学起的朋友,同时减轻大家的负担。
由于文件比较大,这里只是将部分目录截图出来,每个节点里面都包含大厂面经、学习笔记、源码讲义、实战项目、讲解视频
如果你觉得这些内容对你有帮助,可以添加下面V无偿领取!(备注:python)
因此收集整理了一份《2024年Python爬虫全套学习资料》送给大家,初衷也很简单,就是希望能够帮助到想自学提升又不知道该从何学起的朋友,同时减轻大家的负担。
由于文件比较大,这里只是将部分目录截图出来,每个节点里面都包含大厂面经、学习笔记、源码讲义、实战项目、讲解视频
如果你觉得这些内容对你有帮助,可以添加下面V无偿领取!(备注:python)
[外链图片转存中…(img-uparnqXR-1711019748973)]