写在前面
最近一直在学习斯坦福大学教授Andrew Ng的机器学习课程。决定把所学到的知识整理下来。
机器学习算法主要分为两种:监督学习(supervised learning)和无监督学习(unsupervised learning).
1.监督学习
监督学习是我们已知数据集的正确输出是什么(即标签 label),想要得到输入和输出的关系。
监督学习又分成两种:回归问题(Regression)和分类问题(Classification)。
回归问题就是我们所得到的输入和输出的关系是连续的函数。
分类问题则是我们所预测出来的结果是离散的输出。
举例说明:
(1) 我们想要通过房屋的大小来预测房屋的价格,因为房屋的价格是一个连续的函数,所以这是一个回归问题。
(2) 我们通过一个病人的肿瘤来判断这个肿瘤是良性还是恶性。因为肿瘤要么是良性要么是恶性,只有这两种结果,所以这是一个分类问题。
2.无监督学习
有的数据集我们不知道正确答案,所有的数据只有特征向量没有标签,但是可以发现相似类型的会聚在一起。无监督学习就是根据他们的性质把他们划分成很多组。聚类算法(Clustering)就是把这些没有标签的数据分成一个个组合。比如Google News,每天会搜集大量的新闻,然后通过聚类算法把他们分类(政治、娱乐、教育、学习…)
还有一种非聚类算法的例子就是鸡尾酒会问题(Cocktail party algorithm),主要是指在一个嘈杂的环境中分离出不同的声音。
最后
有的时候我会把监督学习中的分类和聚类算法搞混淆,Andrew的PPT中有一幅图很清晰地表示了他们的区别。