机器学习笔记(0)
常见概念&一些术语(随学习进度更新,部分个人理解)
- 监督学习(Supervised Learning)
给定训练集后,通过算法让机器学习分类、标识等操作。 - 无监督学习(Unsupervised Learning)
根据没有被标记的训练样本,来自动完成分类等操作。 - 支持向量机(Support Vector Machine, 简称SVM)
是一类按监督学方式对数据进行二元分类的广义线性分类器(generalized linear classifier),其决策边界是对学习样本求解的最大边距超平面(maximum-margin hyperplane) - 鸡尾酒会问题(cocktail party problem)
当前语音识别技术已经可以以较高精度识别一个人所讲的话,但是当说话的人数为两人或者多人时,语音识别率就会极大的降低,这一难题被称为鸡尾酒会问题。 - 奇异值分解(Singular Value Decomposition,简称SVD)
SVD是线性代数中一种重要的矩阵分解,奇异值分解则是特征分解在任意矩阵上的推广。 - 单变量线性回归(Linear Regression with One Variable)
只含有一个 特征/输入变量 的问题叫作单变量线性回归问题。 - 代价函数(Cost Function )
就是误差函数,分析线性回归中几个具体参数所构成的“具体线性回归函数”的误差大小。代价函数的误差越小,参数所构成的回归函数拟合越好。
代价函数也被称作平方误差函数,有时也被称为平方误差代价函数。 - 梯度下降(Gradient Descent )
梯度下降是一个用来求函数最小值的算法,用来求出代价函数J(θ0,θ1) 的最小值。即让代价函数的值更快的向最小变化。