什么叫逻辑回归? 简单来讲便是目标值只有{0,1},而线性回归的目标值却是一个区域
0,1 可以代表得病没得病,正确错误,etc...
那么怎么才能把给定的输入值正确的分类到{0,1}呢,下面就介绍一个特别的函数:Sigmoid函数, g(z) = 1/(1+ exp(-z))
啥都不说先上图。
上图便是sigmoid函数图了,之所以引用这个函数便是他在Z取极小的区间[-5 5] Y便从0过度到1,极其迅速。而当Z取0时,Y刚好为0.5
所以当输入值Z>0时 Y>0.5 那么便把它归到1 这类,而当输入值Z<0 便把它归到0这类。所以现在可以把重点放在Z上了。
大家都知,在通过输入值X 预测y的时候 X 可以有很多个feature 比如有 n个feature, m 个example, 那么X便是m*n的矩阵,y 是m*1的矩阵。
处理X还是按纯性回归那样 theta*X 这便是上文说的Z了。现在这样便构建好函数。那么接下来就用这个函数来计算theta。只要计算好
theta便可以预测数据啦。
我们先来介绍cost function. 说起cost function在做线性回归的时候已经有所了解,其实就是算的误差,这与最小二乘法道理也些类似。容我以后补充。但是做逻辑回归并
不能用线性回归的cost funciton 只是因为那并不会全局最优,只能做到局部最优。看不懂? 我也不懂,反正就是这样。现在 正式引入逻辑回归的cost function