Logistic Regression

本文探讨了逻辑回归在二分类问题中的应用,包括其假设表示、sigmoid函数、决策边界、代价函数的简化与梯度下降方法,涵盖了高级优化算法如梯度下降、共轭梯度和BFGS。深入理解了如何通过凸优化解决模型训练问题。
摘要由CSDN通过智能技术生成

Logistic Regression

分类
y∈{0,1}
假设陈述
Hypothesis Representation 假设表示
Logistic/Sigmoid function
g(z)=1/(1+e^(-z))
p()
决策界限
Decision Boundary
p(y=0|x;θ)+p(y=1|x;θ)=1
代价函数
cost function
凸函数和非凸函数
**简化代价函数与梯度下降 **
J(θ)简化函数
高级优化

  1. gradient descent
  2. conjugate gradient
  3. BFGS
  4. L-BFGS
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值