ML目标
从数据中学习到一些高层次的抽象的一些概念,这样的话,对于一个新数据x,也能预测出比较符合实际情况的y。
而自然界的y往往有两种:离散和连续。
连续值预测:
线性方程:
可以求出w和b精确解,但是在现实生活中,我们不能精确求解,1是生活中的模型是未知的,2是有噪声。
需要更多的参数才能求出w和b的值。
如何更好的求解w和b参数呢?
构造一个新的损失函数loos function
Minimize 的方法:
梯度下降法
如果要求一个函数的极小值,对于任意的x(随机初始化),沿着函数导数方向(使函数值增大的方向)的负方向更新,其中导数前面的0.005是衰减因子(学习率),即前进的长度是导数的长度乘以一个衰减因子,慢慢逼近极小值点。
对于一个函数,总可以更新到极小值点的函数,叫做凸函数。
连续值预测&#