PCA 人脸识别
结果可视化
![](https://i-blog.csdnimg.cn/blog_migrate/2288479cb56c919c68be43317dc8c9e6.png)
结果图
![](https://i-blog.csdnimg.cn/blog_migrate/bcce633b2b1dabb25e402b73257edba3.png)
控制台结果图
![](https://i-blog.csdnimg.cn/blog_migrate/28a9d4e732142a667199268947d7a5bd.png)
朴素贝叶斯分类
使用鸢尾花数据集,由于数据集是连续型数据,因此,假设各个属性是成正态分布的,采用密度函数进行概率计算。
代码写的不怎么简洁,但是把过程思路基本写出来了。
结果图
![](https://i-blog.csdnimg.cn/blog_migrate/4cd71f822b29a8f2aa1ce7d8a045e45c.png)
DecisionTree
决策树分类
实验环境:
系统:Windows 10
语言:Python3.6
IDE:Sublime Text3.
数据集:数据集是自己创建的,详情见代码或者是图片“数据集.png”。
实验目的:
了解三种不同决策树的工作原理,使用自己创建的数据集,对数据进行分类,完成决策树的绘制。
实验过程:
学习三种决策树的工作原理,了解到三种决策树的区别如下:
ID3 算法以信息增益为准则来进行选择划分属性,选择信息增益最大的进行划分;
算法先从候选划分属性中找出信息增益高于平均水平的属性,再从中选择增益率最高的;
CART 算法使用“基尼指数”来选择划分属性,选择基尼值最小的属性作为划分属性。
实验数据集:
![](https://i-blog.csdnimg.cn/blog_migrate/7355412f28ff63030f990cc9806f9482.png)
编写代码,此次实验编程语言使用的是 python。详细算法步骤见文件 decision_tree.py 和 treePlot.py 中的注释。decision_tree.py 是用来实现属性划分的,treePlot.py 是用来实现最终决策树绘制的。
实验结果
实验结果如下:
![](https://i-blog.csdnimg.cn/blog_migrate/c099afefb83de6a99be2dfbf95ddae83.png)
ID3 决策树:
![](https://i-blog.csdnimg.cn/blog_migrate/3f0cc476a76b83b2f376703f183cd2a5.png)
![](https://i-blog.csdnimg.cn/blog_migrate/6df64a48c9fdbbbfa48300f7dd9fe6cd.png)
决策树:
![](https://i-blog.csdnimg.cn/blog_migrate/70a6ef72faa61aaa8fa26a136daec63c.png)
![](https://i-blog.csdnimg.cn/blog_migrate/2cb270845a1bef7a3ae89ed748f24678.png)
CART 决策树:
![](https://i-blog.csdnimg.cn/blog_migrate/615cfc7f1bff7b74e92ce3aa4fee53d5.png)
![](https://i-blog.csdnimg.cn/blog_migrate/1c128415fc7348b770134a6bb6315eef.png)
实验结论:
由以上实验结果我们可以看到,ID3 和 C4.5 决策树的最优索引相同,所绘制出来的决策树是也是相同的,而 CART 绘制出来的决策树与前 2 种不同。
完整代码:https://download.csdn.net/download/qq_38735017/87415806