如果我们基于逻辑回归的损失函数做GD梯度下降,那么就要求梯度,而我们知道求梯度是loss损失函数对theta求偏导。
1.首先先对逻辑回归函数求导(后面对loss求偏导会用到)
2.逻辑回归损失函数
可以将上式看成两部分分别求到再相加
这里我们发现导函数的形式和多元线性回归一样,毕竟都是从广义线性回归来的嘛。
这样就可以用上面推导的公式求出梯度g
进而运用梯度下降公式反复迭代减小损失。
如果我们基于逻辑回归的损失函数做GD梯度下降,那么就要求梯度,而我们知道求梯度是loss损失函数对theta求偏导。
1.首先先对逻辑回归函数求导(后面对loss求偏导会用到)
2.逻辑回归损失函数
可以将上式看成两部分分别求到再相加
这里我们发现导函数的形式和多元线性回归一样,毕竟都是从广义线性回归来的嘛。
这样就可以用上面推导的公式求出梯度g
进而运用梯度下降公式反复迭代减小损失。