简介
本章节会介绍机器学习的一些基础知识. 相信大家都已经对机器学习有了一定的了解.
这里我们会直接对一些基本知识点进行梳理和总结.此外后续我们只会重点梳理监督学习
机器学习分类
俗话说 男怕入错行,女怕嫁错郎. 一开始大方向选择是非常重要的. 在开始机器学习前你必须要明确你的场景属于哪一类,然后按类去进行研究和训练, 如果盲目套用工具,那么我们得到的大概率不是智能。
-
监督学习 supervised learning
-
回归
-
分类
-
CNN
-
RNN
-
-
非监督学习 unsupervised learning
- 聚类分析
-
半监督学习 semi-supervised learning
-
强化学习(RL) reinforcement learning
-
迁移学习 Transfer Learning (2018大火且成熟)
迁移学习
迁移学习是运用已存有的知识对不同但相关领域问题进行求解的新的一种机器学习方法,将已经训练好的模型参数迁移到新的模型来帮助新模型训练数据集
目的是迁移已有的知识来解决目标领域中仅有少量有标签样本数据甚至没有的学习问题。迁移学习广泛存在于人类的活动中,两个不同的领域共享的因素越多,迁移学习就越容易,否则就越困难,甚至出现“负迁移”,产生副作用
如果用一句话来概括迁移学习, 那务必就是: “为了偷懒, 在训练好了的模型上接着训练其他内容, 充分使用原模型的理解力”. 有时候也是为了避免再次花费特别长的时间重复训练大型模型.
目前常见应用场景是CNN, 因为CNN 通常都是大型模型,比如训练好了一个区分男人和女人的 CNN. 接着来了个任务, 说下个任务是区分照片中人的年龄. 这看似完全不相干的两个模型, 但是我们却可以运用到迁移学习, 让之前那个 CNN 当我们的初始模型, 因为区分男女的 CNN 已经对人类有了理解. 基于这个理解开始训练, 总比完全重新开始训练强. 但是如果你下一个任务是区分飞机和大象. 这个 CNN 可能就没那么有用了, 因为这个 CNN 可能并没有对飞机大象有任何的理解.
强化学习 (生产不推荐)
强化学习常见算法:
- Q Leaning(离线学习)
- Sarsa(在线学习)
- 遗传算法
2018.11曾在twitter爆发-通往*通用人工智能(AGI)
之路是否必须强化学习
的学术大论战, 基于深度学习的DRL
强化学习是学习一个最优策略(policy),可以让本体(agent)在特定环境(environment)中,根据当前的状态(state),做出行动(action),从而获得最大回报(G or return)。
强化学习是一类算法, 是让计算机实现从一开始什么都不懂, 脑袋里没有一点想法, 通过不断地尝试, 从错误中学习, 最后找到规律, 学会了达到目的的方法. 这就是一个完整的强化学习过程. 更形象的说:给计算机一个封闭环境,让它自己不断尝试,对了给一颗糖(得分鼓励),错了打一巴掌(扣分纠正).最后使得计算机最终自己找到规律.
强化学习目前更多的活跃在下棋和游戏领域中,经典的强化学习案例: Alpha go(DRL), 超级马里奥.
优点: 模拟人的学习和成长过长, 可能通向AGI
, 可持续在线学习
缺点: 能耗高,收敛慢
半监督学习
...
无监督学习
无监督学习与监督学习相比,训练集没有人为标注的结果。常见的无监督学习算法有聚类等。
监督学习(生产推荐)
定义: 机器学习系统通过学习如何组合输入信息来对从未见过的数据做出有用的预测。
常见算法和场景:
-
回归
比如预测房价,预测用户购买力来定价,
-
分类
预测用户会不会点击或购买
-
CNN
图像识别领域,应用非常广泛和成熟
-
RNN
语义分析,情感分析
总结
传统的机器学习算法有以下几种:
线性回归模型、logistic回归模型、k-临近算法、决策树、随机森林、支持向量机(SVM)、贝叶斯算法等. 他们大部分都是是专门用来解决监督学习中的分类和回归问题.
而目前最火热的则是深度学习(人工神经网络),它除了能解决传统机器学习的场景外,还在cnn(图像), rnn(语音),以及强化学习等领域进行大革新,甚至目前出现迁移学习.可以说目前全球最精英人都在研究和发展它.
另外一个重要区别是传统机器学习早期更多活跃于比赛和学术圈中,或者在高端产品中,工业上非常少见.而目前深度学习技术,虽然有过度夸大的成分,但是它显然已经被整个社会接受,被企业接受并用于生产.