机器学习实战
文章平均质量分 85
张先生的blog
这个作者很懒,什么都没留下…
展开
-
《机器学习实战》2.K-近邻算法分析与源码实现(文末附官方勘误表)
结合源码分析第二章中实现的Demo 本人安装的是Anaconda,程序在Jupyter Notebook上运行的。 第一次实战,注解比较多。另外我将一些函数做了总结与对比,见我的这篇文章前言k近邻是一种基本分类与回归方法。k近邻法的输入为实例的特征向量,对应于特征空间的点,输出为实例的类别,可以取多类。k近邻法假设给定一个训练数据集,其中的实例类别已定。分类时,对新的实例,根据其K个最近邻的训练原创 2017-12-10 17:37:39 · 1109 阅读 · 1 评论 -
《机器学习实战》——2.k-近邻算法(KNN )函数总结
* 在《机器学习实战》第二章中,使用了KNN算法改进约会网站配对效果。本文为在实现过程中使用到的一些函数 基本用法的总结。* 1. str.strip()方法语法:str.strip([chars]) 功能:返回移除字符串头尾指定字符后生成的新字符串 参数: chars 需要移除字符串头尾的指定字符(默认是空格) 官方文档描述: Return a copy of the string w原创 2017-12-10 13:55:18 · 439 阅读 · 0 评论 -
《机器学习实战》3.决策树算法分析与源码实现
结合源码分析第三章中实现的Demo 运行环境:Anaconda——Jupyter Notebook Python版本为:3.6.2(原书代码实现为2.x 所以在一些代码上略有改动) 阅读本博文你将获取: 1.决策树的基本思想 2.信息增益和熵的概念——本文中使用信息增益作为划分数据集的标准 3.全部的代码实现,且包含了大部分注释,便于初学者者理解 4.在最后的总结部分对决策树的优缺点做原创 2017-12-11 21:29:26 · 1067 阅读 · 0 评论 -
《机器学习实战》3.树模型(决策树)总结
前言 本文主要总结了《机器学习实战》第三章———决策树中的若干问题,以及一些函数的用法(对比)。 第一部分 心得 1. 关于决策树的生成 决策树的生成算法有:ID3(本章使用)、CART、C4.5。对于ID3而言,筛选特征的原则为——最大信息增益原则。在介绍最大信息增益之间,我们首先要了解一个概念——熵(Entropy) :在信息论与概率统计中,熵是表示随机变量不确定性的度量。信息原创 2018-01-03 16:36:48 · 603 阅读 · 0 评论 -
《机器学习实战》5.Logistic回归源码实现
结合源码分析第五章中实现的Demo 运行环境:Anaconda——Jupyter Notebook Python版本为:3.6.2(原书代码实现为2.x 所以在一些代码上略有改动) 参考资料: Apachecn 专注于优秀项目维护的开源组织 Hands-On Machine Learning with Scikit-Learn and TensorFlow 阅读本文你将获得如下知识:原创 2018-01-07 20:38:16 · 8329 阅读 · 5 评论 -
《机器学习实战》7.利用AdaBoost算法提高分类性能
结合源码分析第七章中实现的Demo 运行环境:Anaconda——Jupyter Notebook Python版本为:3.6.2(原书代码实现为2.x 所以在一些代码上略有改动) 参考资料: Apachecn 专注于优秀项目维护的开源组织 《统计学习方法》 李航著 《机器学习》 周志华著 集成学习(ensemble learning)是通过构建多个学习器来完成学习任务。 ...原创 2018-03-13 09:28:39 · 601 阅读 · 0 评论