监督学习(Supercised Learning)是对具有概念标记(分类)的训练样本进行学习,以尽可能对训练样本集外的数据进行标记(分类)预测。其中包括分类和回归,典型的算法有logistic regression、BP神经网络算法、线性回归算法等,而分类算法和回归之间的区别为算法中的标签点事离散值还是连续值。监督学习通过算法习得样本特征到样本标签之间的假设函数,并用其对新的数据进行预测。回归问题是指通过训练数据学习一个从观测样本到连续标签的映射,在回归问题中,标签是一系列的连续值。
非监督学习(UnsupercisedLearning)对没有概念标记(分类)的训练样本进行学习,以发现训练样本集中的结构性知识。这里,所有的标记(分类)是未知的。因此,训练样本的岐义性高。典型的为聚类(clustering),代表的算法有K-Means、DBSCAN算法等。再无监督学习中,样本只包含特征值,不包含标签信息,在学习过程中不知其分类结果是否正确。