[机器学习]逻辑回归(Logistic Regression)

逻辑回归(Logistic Regression)是一种广义的线性回归分析模型,常用于数据挖掘,疾病自动诊断,经济预测等领域。例如,探讨引发疾病的危险因素,并根据危险因素预测疾病发生的概率等。

逻辑回归模型
P ( y = 1 ∣ x ) = h θ ( x ) = 1 1 + e − θ T x P(y=1|x)=h_\theta(x)={\frac {1}{1+e^{-\theta^Tx}}} P(y=1x)=hθ(x)=1+eθTx1代价函数
C o s t ( h θ ( x ( i ) ) , y ( i ) ) = { − log ⁡ ( h θ ( x ( i ) ) if  y ( i ) = 1 − log ⁡ ( 1 − h θ ( x ( i ) ) if  y ( i ) = 0 Cost(h_{\theta}(x^{(i)}),y^{(i)})=\begin{cases} -\log(h_{\theta}(x^{(i)})& \text{if $y^{(i)}=1$} \\ -\log(1-h_{\theta}(x^{(i)})& \text{if $y^{(i)}=0$} \end{cases} Cost(hθ(x(i)),y(i))={log(hθ(x(i))log(1hθ(x(i))if y(i)=1if y(i)=0
J ( θ ) = 1 m ∑ i = 1 m C o s t ( h θ ( x ( i ) ) , y ( i ) ) = − 1 m ∑ i = 1 m [ y ( i ) log ⁡ h θ ( x ( i ) ) + ( 1 − y ( i ) ) log ⁡ ( 1 − h θ ( x ( i ) ) ) ] J(\theta)={\frac {1} {m}}\sum_{i=1}^m Cost(h_{\theta}(x^{(i)}),y^{(i)}) =-{\frac {1} {m}}\sum_{i=1}^m[y^{(i)}\log h_{\theta}(x^{(i))}+(1-y^{(i)})\log (1-h_{\theta}(x^{(i)}))] J(θ)=m1i=1mCost(hθ(x(i)),y(i))=m1i=1m[y(i)loghθ(x(i))+(1y(i))log(1hθ(x(i)))]求解方法

  • 梯度下降法(Gradient Descent)
    通过迭代
    θ j = θ j − α ∂ ∂ θ j J ( θ ) \theta_j=\theta_j-\alpha{\frac {\partial}{\partial\theta_j}}J(\theta) θj=θjαθjJ(θ)确定参数 θ 0 , θ 1 , . . . , θ n \theta_0,\theta_1,...,\theta_n θ0,θ1,...,θn
  • 共轭梯度法(Conjugate Gradient)
  • BFGS法
  • L-BFGS法

对于多分类问题(Multi-class Classification),可以化为若干个二分类(Binary Classification)问题。

评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值