机器学习(三)

机器学习基础

1.算法是核心,数据计算是基础

2.找准定位

机器学习算法的判别依据

数据类型

离散型数据:由记录不同类别个体的数目所得到的数据,又称计数数据,所有这些数据全部都是整数,而且不能再细分,也不能进一步提高精确度

连续性数据:变量可以在某个范围内取任一数,即变量的取值可以是连续的,如长度、时间、质量值等,这类整数通常是非整数,含有小数部分

(只要记住一点,离散型是区间内不可分,连续型是区间内可分)

机器学习算法分类

监督学习(预测)(特征值+目标值)

1.分类 k-近邻算法、贝叶斯分类、决策树与随机森林、逻辑回归、神经网络

2.回归 线性回归、岭回归

3.标注 隐马尔可夫模型

分类:目标值离散型;回归:目标值连续型

无监督学习(特征值)

1.聚类 k-means

监督学习

可以由输入数据中学到或建立一个模型,并依此模式推测新的结果。输入数据是由输入特征值和目标值所组成。函数的输出可以是一个连续的值(称为回归),或是输出是有限个离散值 (称作分类)。

分类是监督学习的一个核心问题,在监督学习中,当输出变量取有限个离散值时,预测问题变成为分类问题。最基础的便是二分类问题,即判断是非,从两个类别中选择一个作为预测结果

回归是监督学习的另一个重要问题。回归用于预测输入变量和输出变量之间的关系,输出是连续型的值。 

无监督学习

可以由输入数据中学到或建立一个模型,并依此模式推测新的结果。输入数据是由输入特征值所组成

机器学习的开发流程

1.建立模型:根据数据类型划分应用种类

2.数据的基本处理:pd去处理数据(缺失值,合并表......)

3.特征工程(特征进行处理)

4.找合适算法去进行预测

模型:算法+数据

5.模型的评估,判定效果

6.上线使用:以API形式提供

分类算法

k-近邻算法(KNN)

定义:如果一个样本在特征空间中的k个最相似(即特征空间中最邻近)的样本中大多数属于某一个类别,则该样本也属于这个类别

相似的样本,特征之间的值应该都是相近的

K-近邻算法:需要做标准化处理

若k值取很小:容易受异常点影响

若k值取很大:容易受k值数量(类别)波动

优缺点

优点:简单,易于理解,易于实现,无需估计参数,无需训练

缺点:1.懒惰算法,对测试样本分类时的计算量大,内存开销大;2.必须指定K值,K值选择不当则分类精度不能保证

使用场景:小数据场景,几千~几万样本

k-近邻算法实现:加快搜索速度

评论 1
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值