现在就写第二个模型,损失函数
loss实际上是把求w的过程变成求概率越大,损失越小
线性回归求解损失函数使用MSE,最小二乘法
这几个算法其实逻辑差不多
避免算出的极小值不靠谱,就有凸优理论
梯度下降并不是一个精确值,但是+w,和-w就要判断导数的正负数在哪里
梯度下降在右边就是负的,减号
损失函数写好,就是小写的l
也可以用大写的L
求导数
线性回归和逻辑回归,其实最小值的求法,都是通用的
也可以表达成下面两种模型
只要是梯度下降,都要一套通用的模型
3种实现方式
sklearn的线性回归放到了linear_model,加载鸢尾花的数据,数据是150个
分三类,0,1,2
sklearn里有显示逻辑回归是如何实现的
c=10e10 10的10次方,最大迭代值max_iter。然后注入数据训练
会发现,这个结果。完全可以从概率模型算出来
完全可以直接打分,识别率可以达到100%
50到150,有1个样本其实是有误差的,100个样本里有2个是错的
A类是可以完全分开的,BC类不太好
取1个特征