逻辑回归代价函数梯度下降求偏导与线性回归代价函数求偏导的区别
逻辑回归代价函数进行梯度下降求偏导时与线性回归的区别从偏导的公式上来看,两种方式的公式是一样的,两者的区别就是 hθ(xi) 的定义不同,hθ(xi) 线性回归时普通的线性函数hθ(xi) 逻辑回归是sigmod函数逻辑回归梯度下降推到具体参考:http://blog.csdn.net/Jiaach/article/details/78736577总结:导致两者求导出来的式子一样...
原创
2019-05-13 21:05:38 ·
1533 阅读 ·
0 评论