机器学习基础概念

参考文章:https://mp.weixin.qq.com/s/u3IyAmpSMhj7Evhxbsh9wg
文章只是简单介绍了一些基本概念,若有错欢迎指出!(邮箱:15929967966@163.com)

应用:

模式识别、计算机视觉、数据挖掘、统计学习、自然语言处理

基本知识:

机器学习的类型:

是否需要人类监督:

1、监督式学习

训练中包含了样本的输出,即label

典型例子:
分类学习:垃圾邮件分类
回归问题:汽车价格预测

常见的一些学习算法:
k—近邻
线性回归
逻辑回归
支持向量机
决策树
随机森林
人工神经网络

2、非监督式学习

训练集中没有输出

  • 聚类
    -k-均值
    -层次聚类分析(HCA)
    -最大期望算法(EM)
  • 可视化和降维
    -主成分分析(PCA)
    -核PCA
    -局部线性嵌入(LLE)
    -t分布随机领居矩阵嵌入(t-SNE)
  • 关联规则学习
    -Apriori
    -Eclat

例子:
可视化算法:把高维不可展现的数据样本以二维或则三维的形式展现出来
异常检测:检测不正常的信用卡交易规避诈骗,捕获人工制造的缺陷或则剔除数据样本中的异常节点
相关的算法(降维):简化数据但不损失太多的数据,过程中将多个特征整合为一个特征
关联规则学习:(目的)挖掘大量数据之间不同属性和特征之间的联系。例如:去超市购买薯片的人群喜欢购买可乐,二者之间就有一个内在关系

3、半监督式学习

训练集样本中大多数没有标签(label)。
给出少量样本的标签,计算机通过聚类算法给所有的图片都加上标签。大多数半监督式学习都是无监督学习和监督学习的结合。

例子:
深度置信网络(DNS):基础模型为受限玻尔兹曼机(RBMs)。RBMs的训练过程是非监督式学习,但是整个DBNs系统是使用监督式学习调优的。

4、强化学习(RL)

奖罚机制,通过反馈的reward,获得最大化的reward signal。利用当前的模型为训练基础,在下一个反馈信号得到之后更新模型,不断修改直到模型收敛。在这个过程中涉及到:探索(exploration)和开发(exploitation),exploitation是指选择之前未执行过的actions,从而探索更多的可能性;exploitation是指选择已经执行过的行为,从而对已知的模型进行完善
深入了解可看:https://blog.csdn.net/gentelyang/article/details/79439987

是否需要线上学习:

1、在线学习

即时的训练数据,当新的数据点和小批量(mini-batches)的数据传输给模型时,及时使模型更新;这种模型主要用在持续接受数据(如:股票证劵市场)并且需要快速更新或自主学习的系统非常有用。机器学习过程中内存不足时进行的训练为核外学习(out of core learning)。如果你的资源有限,在线学习是一个不错的选择。在线学习系统的学习了新的数据之后,这些数据就可以丢弃。对于拥有大量数据的学习,可以将整个数据集分解为若干个mini-batches,依次对这些小批量的数据进行操作,直到整个样本都被训练,整个训练过程是离线的,所以又叫做增量学习。在线学习中基于数据改变更新算法的频率称为“学习率”。

2、批量学习

批量学习不是即时学习,将所有的训练数据一起训练,模型训练好之后上线发布,每次数据更新之后就再次进行训练,若需要得到新的训练模型,需要将新的数据和原来的数据进行整合,训练得到新的模型,最后上线发布。

是否可以简单的把新的数据集和已知的数据集进行比较得出结果,从训练集中检测模式,建立预测模型(归纳方法不同):

从训练样本模型需要泛化到新的未知模型去

1、基于实例学习

最简单的就是记忆学习,系统将所有的训练样本都存储下来,然后计算新的样本和存储这些样本的相似度

2、基于模型学习

使用所有的训练集样本建立一个模型,然后使用这个样本预测新的样本

机器学习模型建立流程:

1、选取数据集
2、选择模型
3、在训练集上训练模型(即使用学习算法找到最佳参数,让代价函数最小化)4、将模型应用到一个新的样本中,进行预测,希望得到一个较好的泛化能力。

评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值