机器学习
xunuo_nwpu
这个作者很懒,什么都没留下…
展开
-
Kaggle Titanic: Machine Learning from Disaster
本题的关键主要在于数据可视化和数据清洗,seaborn,matplotlib对于机器学习框架sklearn作为了解# Imports# pandasimport pandas as pdfrom pandas import Series,DataFrame# numpy, matplotlib, seabornimport numpy as npimport matplotli...原创 2019-08-31 10:18:33 · 173 阅读 · 0 评论 -
决策树通过举例通俗理解
信息熵:不得不提香农这个大写的人啦!信息论里面的知识。在信息论里面,信息熵衡量信息量的大小,也就是对随机变量不确定度的一个衡量。熵越大,不确定性越大。对于某个单符号无记忆信源,发出符号(xi)的概率是pi,概率越大,符号的信息量就越小。特征的选择:每次选入的特征作为分裂的标准,都是使得决策树在这个节点的根据你自己选择的标准(信息熵最小、信息增益最大、gini系数最小)先说让信息增益最大的方法...原创 2019-08-31 20:55:59 · 872 阅读 · 0 评论 -
随机森林通俗理解
本文转载于他人内容:原文链接原文中还有python实现过程随机森林就是通过集成学习的思想将多棵树集成的一种算法,它的基本单元是决策树,而它的本质属于机器学习的一大分支——集成学习(Ensemble Learning)方法。其实从直观角度来解释,每棵决策树都是一个分类器(假设现在针对的是分类问题),那么对于一个输入样本,N棵树会有N个分类结果。而随机森林集成了所有的分类投票结果,将投票次数最...转载 2019-08-31 21:24:37 · 3376 阅读 · 0 评论 -
Bagging和Boosting 概念及区别
Bagging和Boosting 概念及区别Bagging和Boosting都是将已有的分类或回归算法通过一定方式组合起来,形成一个性能更加强大的分类器,更准确的说这是一种分类算法的组装方法。即将弱分类器组装成强分类器的方法。首先介绍Bootstraping,即自助法:它是一种有放回的抽样方法(可能抽到重复的样本)。1、Bagging (bootstrap aggregating)Bagg...转载 2019-09-01 15:06:37 · 157 阅读 · 0 评论