首先提出两个概念,监督学习算法和无监督学习算法
监督学习算法:我们给一个算法的数据集,其中包含了正确答案,算法的目的是为了得到更多的正确答案。(算法预测并得到正确答案)。
无监督学习算法:不知道个体的分类,自动按得到的类型分成簇。没有正确的答案给算法。聚类是无监督学习的一种。
所以监督学习算法就是告诉机器如何分类,二无监督则是让他自己自动分类。
代价函数:即是平方误差函数,通过计算预测值和真实值差的平方从而得到一个新的函数,即是代价函数。
公式:
代价函数:一个参数类似于一个抛物线,两个参数类似于碗,等高线。
梯度下降:通过改变2个变量的取值,从而得到代价函数的最小值。不同的出发点会得到不同的局部最小值。公式如下:
α代表学习速率。
如果在局部最低点它将保持不变。
线性回归的算法:
向量:只含有一列的矩阵。
矩阵向量乘法
矩阵乘法
矩阵乘法顺序不可以交换,不服从交换律。
矩阵乘法服从结合律。
g
单位矩阵:对角线为1。
方正才有逆矩阵。
多元线性回归:
特征缩放:让梯度运行更快些。
归一化:
学习效率:太大,代价函数值会不断上升,太小,需要梯度下降很慢。
正规方程:
假设我们的训练集特征矩阵为 X(包含了 x 0 = 1 \ x_0=1 x 0=1)并且我们的训练集结果为向量 y ,则利用正规方程解出向量θ =(X TX) −1 X Ty 。 上标 T 代表矩阵转置,上标 -1 代表矩阵的逆。
octave的操作
详见P26-P30。还没有进行实操。
矢量:
向量化的步骤:
分类:正类和负类是随意的。
对于分类问题,线性回归并不是一个好方法。使用logistic回归。
logistic函数;
决策边界:使得直线一边的y值等于1,一边y值等于0。
就是指的是离散的一般用logistic回归。
拟合logistic回归的代价函数
把式子合并成一个式子,避免因为y的取值不同进行分类讨论。
高级优化算法:
多类别分类问题:
把其中一个值作为正,剩下的为负。
过拟合问题:具有高方差。
选择需要保留的特征变量,从而减少变量的数量,从而可以更好的拟合数据。
正则化的运行和其构造函数:
在使得参数的值更小的时候,可以把一个多维的数降低至低维。
正则化:正则化中我们将保留所有的特征变量,但是会减小特征变量的数量级(参数数值的大小θ(j))。
暂时不是很理解为啥加上一个项就可以实现正则化。(二刷差不多理解了)
正规方程通过正则化:
logistic回归的正则化
非线性假设:如果特征很多的话,过拟合很容易出现。
神经元与大脑:模仿大脑的算法。
输入层,隐藏层,输出层
具体举例:
单层神经元
当x,y其中一个为1时输出是0,否则为0.
多层神经元:
神经网络解决分类问题:
具体例子如下;