一、模型
1、数据集即训练集
2、m样本数,x输入特征,y输出结果,(x,y)一个训练样本,x^(i)上标i训练集的索引,h假说函数
二、代价函数(平方误差函数、平方误差代价函数)
定义:
目标为求出minimaize J(theta0,theta1)
其中的\Theta 0,\Theta 1是假说函数h(x)=theta0+theta1*x的系数
代价函数除以2是为了简化后续数学操作,比如求导可以消掉
三、梯度下降算法最小化任意J函数
算法定义:
学习率:控制梯度下降时迈出的步子大小
是导数项
要进行同步更新,即定上述定义式j为0和1
四、线性回归算法
1、使用(三)中方法,多个参数的J代价函数需求偏导
2、线性回归的代价函数总是一个弓形函数,且只有一个全局最优解没有局部最优解
3、Batch梯度下降算法会遍历完整个样本集,适用于大型样本集