机器学习算法基础
文章平均质量分 79
全村的唯一希望
俺村最靓的码农
展开
-
from sklearn.tree 决策树的基础知识
N~B轰轰的导包from sklearn.tree import DecisionTreeRegressor #回归from sklearn.tree import DecisionTreeClassifier #分类实现的算法基础ID3的优缺点:优点: 原理简单.缺点: 1. 存在大量对数运算, 对计算机不太友好. 2. 会存在优先对比较离散的特征进行划分的毛病,容易造成误差.C4.5算法: 是对ID3的改进算法. 改进了缺点中的第二点.C4.5在ID3计算信息增益的基础上除上原创 2021-03-25 00:18:32 · 1493 阅读 · 0 评论 -
机器学习之估计器和转换器
关于估计器和转换器关于如果看是分类问题还是回归问题分类: 目标值数据是离散型回归:目标值数据是连续型转换器fit_transform(),意思就是先进行fit(),进行数据拟合,然后再进行transform() 进行标准化处理,一般来说对于训练集数据,我们应该对数据先进行拟合再进行标准化处理,因为使用fit.transform()是为了找到训练集上的方差、均值等等,但是在测试集上我们只需要对数据进行标准化处理而不需要进行拟合,所以对测试集进行transform() 即可。s = S原创 2021-03-24 00:45:06 · 701 阅读 · 0 评论 -
机器学习之KNN(K近邻)基础
公式就自己去百度,算,推导一下吧,我就不写出来了流程:1.计算已知类别数据集中的点与当前点之间的距离2.按距离递增次序排序3.选取与当前点距离最小的k个点4.统计前k个点所在的类别出现的频率5.返回前k个点出现频率最高的类别作为当前点的预测分类总结:简单地说,K-近邻算法采用测量不同特征值之间的距离方法进行分类。它既能用于分类,也能用于回归。KNN通过测量不同特征值之间的距离来进行分类。优点:1、简单有效2、重新训练代价低3、算法复杂度低4、适合类域交叉样本5、适用大原创 2021-03-23 01:31:13 · 392 阅读 · 0 评论