代价函数:解决回归问题,对预测出的函数和实际的值之间的差距做出的惩罚
梯度下降:最小化函数(如代价函数)
就好像站在山顶上,一步一步的找出最快的下山的路径
如果当你开始下山时,你的起点不一样,将会可能下降到不同的地方,即局部最优解,如图
公式:
α:即下山的步子大小
这是函数在j方向上的偏导数
每当j变化时,都会变化
α太小会如图1,需要下降很多步,α太大则可能会越过最低点
因为是实时更新的,斜率越来越小,所以越接近底部,步伐就会越小
代价函数:解决回归问题,对预测出的函数和实际的值之间的差距做出的惩罚
梯度下降:最小化函数(如代价函数)
就好像站在山顶上,一步一步的找出最快的下山的路径
如果当你开始下山时,你的起点不一样,将会可能下降到不同的地方,即局部最优解,如图
公式:
α:即下山的步子大小
这是函数在j方向上的偏导数
每当j变化时,都会变化
α太小会如图1,需要下降很多步,α太大则可能会越过最低点
因为是实时更新的,斜率越来越小,所以越接近底部,步伐就会越小