虽然是科班计算机出身。但是毕竟不是科班机器学习出身,或者说上课时没正式上过《机器学习》(当时的《模式识别》课程有点像,但是感觉很不成体系)
所以,虽然稀稀拉拉学习过很多次机器学习课程。但是总感觉心中没底。感觉并不扎实。(譬如对应的,大学毕业后从来没有重新学习过一次数据库 :) )
此次且当做复习和补漏吧。看看能不能边学习,边把要点记完整些。(记笔记,很多时候自己是虎头蛇尾,这次再努力一次看看能否有始有终)
1)大致历史:1950s 开始探索AI; 1980s 开始探索ML(AI的子集); 2010s开始探索DL(ML的子集);
2)起初,人为设定规则,譬如: 对话中出现“关闭”,AI模块则把音乐关闭; 那么假如对话中说“不要关闭”呢? AI就误判了。
所以认为规则的方法,很难覆盖各种可能;需要为编写规则付出很大的努力;
3)ML的方法,就是给很多示教的材料(有输入、给输出的标准答案),试图学习 f(输入) = 输出; 试图学习函数f;
输入包括 文本、声音、图像、棋盘等。
4)每一种机器学习模型框架,都提供了很多灵活的模型空间,可以拟合各种输入输出,学习的过程就是在模型库中找到最能匹配拟合 训练集的那个参数组;
5)课程学习分以下几块: 总的{学习理论}; {有监督学习,无监督学习,半监督学习,迁移学习,强化学习};
有监督学习:{回归学习,分类学习,结构学习}; 分类学习:{线性模型, 深度学习,SVM、决策树、K-NN}
6)回归学习: 譬如预测 每天的 PM2.5; 预测结果是一个 值;
7)分类学习: 二分类(是否垃圾邮件);多分类(新闻分类);
8)深度学习:图片分类(是猫、是狗、是猴子。。。); 棋谱学习:也可以看做是一种深度学习分类;
9)为什么要学习机器学习: 充当AI训练师,选择合适的 model,loss function,等;训练过程也很重要,不一定能找到best function
课程目录:
1)机器学习介绍; 2)回归;3)梯度下降; 4)分类; 5)支持向量; 6)集成学习; 7) 深度学习预备; 8) 卷积神经网络; 9)循环神经网络; 10) 半监督学习; 11)无监督学习; 12) 深度生成模型; 13) 迁移学习;