机器学习的损失函数是人为设计的,用于评判模型好坏(对未知的预测能力)的一个标准、尺子,就像去评判任何一件事物一样,从不同角度看往往存在不同的评判标准,不同的标准往往各有优劣,并不冲突。唯一需要注意的就是最好选一个容易测量的标准,不然就难以评判了。
其次,既然不同标准并不冲突,那使用最小二乘作为逻辑回归的损失函数当然是可以,那这里为什么不用最小二乘而用最大似然呢?请看一下最小二乘作为损失函数的函数曲线:
最大似然估计得到的损失函数是凸函数,然而最小二乘法得到的损失函数是非凸函数,故最大似然估计很容易求到参数的最优解。这就是前面说的选取的标准要容易测量,这就是逻辑回归损失函数为什么使用最大似然而不用最小二乘的原因了。
作者:茄子cheer
链接:https://www.jianshu.com/p/699a13c9a253
来源:简书
著作权归作者所有。商业转载请联系作者获得授权,非商业转载请注明出处。
作者:茄子cheer
链接:https://www.jianshu.com/p/699a13c9a253
来源:简书
著作权归作者所有。商业转载请联系作者获得授权,非商业转载请注明出处。