![](https://img-blog.csdnimg.cn/20201014180756757.png?x-oss-process=image/resize,m_fixed,h_64,w_64)
机器学习实战
bwqiang
日日新。
展开
-
全面解读机器学习之决策树
一、决策树的构造 优点:计算复杂度不高,输出结果易于理解,对中间值的缺失不敏感,可以处理不相关特征数据。 缺点:可能会产生过度匹配问题。 适用数据类型:数值型和标称型。 决策树的一般流程: 收集数据:可以使用任何方法。 准备数据:树构造算法只适用于标称型数据,因此数值型数据必须离散化。 分析数据:可以使用任何方法,构造树完成之后,我们应该检查图形是否符合预期。 训练算法:构造树的数据结构。 测试算法:使用经验树计算错误率。 使用算法:此步骤可以适用于任何监督学习算法,而使用决策树可以更好地理解数据原创 2020-07-01 23:12:54 · 305 阅读 · 0 评论 -
全面解读机器学习之k-近邻算法
一、k-近邻算法概述 k-近邻算法采用测量不同特征值之间的距离方法进行分类。优点: 精度高、对异常值不敏感、无数据输入假定。缺点: 计算复杂度高、空间复杂度高。适用数据范围: 数值型和标称型。 工作原理:存在一个样本数据集合,也称作训练样本集,并且样本集中每个数据都存在标签,即我们知道样本集中每一数据与所属分类的对应关系。输入没有标签的新数据后,将新数据的每个特征与样本集中数据对应的特征进行比较,然后算法提取样本集中特征最相似数据(最近邻)的分类标签。一般来说,我们只选择样本数据集中前k个最相似的数原创 2020-06-29 18:19:03 · 685 阅读 · 0 评论