Logistic regression

回归

“回归”就是“回归本质”的意思。用一个函数去拟合一组数据,随着数据越来越多,用来拟合的这个曲线就越来越接近真实的情况。
* linear regression:用直线拟合
* logistc regression:用一种曲线拟合(是不是sigmoid形状的曲线?)

Logistics regression

θTx 是linear regression,套一层sigmoid将输出映射到 (0,1)

假设训练集为 (x(1),y(1)),(x(2),y(2)),...,(x(m),y(m)) ;输入特征为 x(i)Rn+1 (我们对符号的约定如下:特征向量 x(i) 的维度为 n+1 ,其中 x0=1 ,对应截距项)。由于logistic回归是针对二分类问题的,因此类标记 y(i){0,1} 。假设函数(hypothesis function) 如下:

hθ(x)=11+eθTx,θRn+1

Interpretion: hθ(x(i))=Sigmoid(θTx(i)) y(i)=1 的概率, 1hθ(x(i)) y(i)=0 的概率( 吴恩达,Logistic Regression: Optimization Objective I)

训练 θ ,使其能最小化代价函数:

J(θ)=1m[i=1mloghθ(x(i))+(1y(i))log(1hθ(x(i)))]

为什么cost function定义为这样?
* 首先的确可以定义为squared error的形式,即
J(θ)=1mi=1m(hθ(x)y(i))2

但是该曲线not convex,即很难找到全局最优。定义为上面的形式则convex。

  • 对某个 (x(i),y(i)) 分类讨论:

    1. y(i)=1 时, cost when hθ(x(i))0 ; cost0 when hθ(x(i))1(i.e. y(i))

    2. y(i)=0 时, cost0(i.e. y(i)) when hθ(x(i))0 ; cost when hθ(x(i))1

  • log 函数的意义在于,它就是好用,而且convex。(这里我也不明白,就先这么记着)

评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值