![](https://img-blog.csdnimg.cn/20201014180756724.png?x-oss-process=image/resize,m_fixed,h_64,w_64)
机器学习日志
欣赏凌晨
这个作者很懒,什么都没留下…
展开
-
随机森林
随机森林可以说是决策树的加强提升。 随机森林属于集成学习(Ensemble Learning)中的bagging算法。在集成学习中,主要分为bagging算法和boosting算法。 Bagging(套袋法) bagging的算法过程如下: 从原始样本集中使用Bootstraping方法随机抽取n个训练样本,共进行k轮抽取,得到k个训练集。(k个训练集之间相互独立,元素可以有重复) 对于k个训练集,我们训练k个模型(这k个模型可以根据具体问题而定,比如决策树,knn等) 对于分类问题:由投票表决产生分类结果原创 2020-05-11 16:28:46 · 169 阅读 · 0 评论 -
决策树
简介 决策树(Decision Tree)是一种基本的分类与回归方法,当决策树用于分类时称为分类树,用于回归时称为回归树。本文主要讨论决策树中的分类树与回归树的一些基本理论,后续文章会继续讨论决策树的Boosting和Bagging相关方法。 决策树由结点和有向边组成。结点有两种类型:内部结点和叶结点,其中内部结点表示一个特征或属性,叶结点表示一个类。一般的,一棵决策树包含一个根结点、若干个内部结点和若干个叶结点。叶结点对应于决策结果,其他每个结点则对应于一个属性测试。每个结点包含的样本集合根据属性测试.原创 2020-05-08 22:17:50 · 412 阅读 · 0 评论 -
K-NN近邻
## K-nn近邻 K-NN算法简介 K-NN算法 ( K Nearest Neighbor, K近邻算法 ), 是机器学习中的一个经典算法, 比较简单且容易理解. K-NN算法通过计算新数据与训练数据特征值之间的距离, 然后选取 K (K>=1) 个距离最近的邻居进行分类或者回归. 如果K = 1 , 那么新数据将被分配给其近邻的类. K-NN...原创 2020-05-06 11:23:21 · 241 阅读 · 0 评论 -
机器学习日志之数据预处理
在当今社会的潮流下,机器学习,深度学习等已经得到了深层次的运用,为了巩固学习效果,也方便寻找代码等,我将学习机器学习的一些感悟等进行总结。 数据预处理 1.我们需要引入两个库,numpy和pandas。 numpy包含数学计算,矩阵数组等。 pandas则用来导入,读取,管理数据。 import numpy as np import pandas as pd 2.导入数据集 收据集一般是.c...原创 2020-04-08 23:40:06 · 509 阅读 · 0 评论