逻辑斯蒂回归的代价函数

本文详细介绍了Logistic回归的代价函数J(θ),包括如何利用梯度下降法求解最优参数θ。通过求导解析了代价函数的偏导数,并展示了更新θ的公式,阐述了在梯度下降过程中的迭代步骤。
摘要由CSDN通过智能技术生成

Logistic回归的代价函数

J ( θ ) = − 1 m [ ∑ i = 1 m y ( i ) l o g   h θ ( x ( i ) ) + ( 1 − y ( i ) ) l o g ( 1 − h θ ( x ( i ) ) ) ] J(\theta)=-\frac{1}{m}\left[\sum^m_{i=1}y^{(i)}log\ h_\theta(x^{(i)})+(1-y^{(i)})log(1-h_\theta(x^{(i)}))\right] J(θ)=m1[i=1my(i)log hθ(x(i))+(1y(i))log(1hθ(x(i)))]对代价函数求偏导:
补充:
h θ ( x ( i ) ) = g ( x ( i ) θ ) g ( x ) = 1 1 + e − x g ′ ( x ) = g ( x ) ( 1 − g ( x ) ) ∂ h θ ( x ( i ) ) ∂ θ = h θ ′ ( x ( i ) ) ( x ( i ) ) T \begin{aligned} &h_\theta(x^{(i)})=g(x^{(i)}\theta)\\&g(x)=\frac{1}{1+e^{-x}}\\ &g^{'}(x)=g(x)(1-g(x))\\ &\frac{\partial h_\theta(x^{(i)})}{\partial \theta}=h^{'}_\theta(x^{(i)})(x^{(i)})^T \end{aligned} hθ(x(i))=g(x(i)θ)g(x)=1+ex1

  • 0
    点赞
  • 0
    收藏
    觉得还不错? 一键收藏
  • 0
    评论
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值