机器学习—逻辑回归

本文介绍了逻辑回归在解决二分类问题中的应用,包括其决策边界解释、使用平方差作为损失函数、以及如何通过正则化防止过拟合,通过调整正则化参数λ来控制模型复杂度。
摘要由CSDN通过智能技术生成

logistic regression:

解决二分类问题,<阈值为0,>=阈值为1
决策边界:边界内外/边界左右为0和1
Model : f(x) = 1 1 + e − ( w x + b ) \frac{1}{1+e^{-(wx+b)}} 1+e(wx+b)1
平方差作为成本,会有很多极小值
loss function
L ( f ( x i ) , y i ) = − l o g ( f ( x i ) ) L(f(x^i),y^i)=-log(f(x^i)) L(f(xi),yi)=log(f(xi))               y i = 1 y^i=1 yi=1
                             − l o g ( 1 − f ( x i ) ) -log(1-f(x^i)) log(1f(xi))    y i = 0 y^i=0 yi=0
L ( f ( x i ) , y i ) = − y i l o g ( f ( x i ) ) − ( 1 − y i ) l o g ( 1 − f ( x i ) ) L(f(x^i),y^i)=-y^ilog(f(x^i))-(1-y^i)log(1-f(x^i)) L(f(xi),yi)=yilog(f(xi))(1yi)log(1f(xi))
cost function
J(w, b) = 1 m [ ∑ i = 1 m L ( f ( x i ) , y i ) ] \frac{1}{m}[ \sum_{i=1}^{m} L(f(x^i),y^i)] m1[i=1mL(f(xi),yi)]
w = w - α ə ə w \frac{ə}{əw} əwəJ(w,b)
b = b - α ə ə b \frac{ə}{əb} əbəJ(w,b)
正则化防止过拟合:
正则化:保留原有功能信息,但防止功能产生过大影响
λ:正则化参数
J(w, b) = 1 m [ ∑ i = 1 m L ( f ( x i ) , y i ) ] + λ 2 m [ ∑ i = 1 m ( w j ) 2 ] \frac{1}{m}[ \sum_{i=1}^{m} L(f(x^i),y^i)]+\frac{λ}{2m}[ \sum_{i=1}^{m} (w_{j})^2] m1[i=1mL(f(xi),yi)]+2mλ[i=1m(wj)2]
将每个w都“惩罚”一点,防止数值过大

  • 8
    点赞
  • 10
    收藏
    觉得还不错? 一键收藏
  • 1
    评论
评论 1
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值