Logistic Regression

一、说明

一个最常见的分类算法.

  • m : 训练集个数
  • n: 特征个数
  • 训练集: {(x(1),y(1)),...,(x(i),y(i)),...,(x(m),y(m))} .
  • x(i)Rn,  y(i){0,1}
  • 模型参数: θ=(θ0,θ1...,θα,...,θn) .
  • 上标 (i) 表示第 i 个数据,下标 α 表示第 α 维特征。

y 的两个取值对应两种不同的分类。这里只说明二分类问题。  

二、Logistic Function

  又名 Sigmoid Function. 函数定义及其导数:

g(z)g(z)=11+ez,=g(z)(1g(z)).

三、模型训练

Hypothesis Funcition (模型预测值):

y^=g(z)=g(αθαxα).  (x0=1)

  其值的意义是数据点 x 属于分类 y=1 的概率。

Cost Function:

J(θ)=1mi=1m[y(i)logg(z(i))+(1y(i))log(1g(z(i)))]+λ2α=1nθ2α.

最后一项是正则项,求和中不包含 α=0 对应的偏置项的参数。所以在下面的梯度中,偏置参数与其他参数的梯度有所不同。

Gradien:

μJ(θ)=1mi[y(i)g(z(i))g(z)+(1y(i))g(z(i))1g(z(i))]z(i)θμ+λ2θμα=1nθ2α=1mi[y(i)(1g(z(i)))(1y(i))g(z(i))]x(i)μ+λ22θμ=1mi(y(i)y^(i))x(i)μ+λθμ

update:

θμθμημJ(θ)

更新策略,具体有 BGD (batch gradient descent), SGD (stochastic gradient descent) .

评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值