初识机器学习 | 6.逻辑回归

本文介绍了逻辑回归的基本概念,包括Sigmoid函数的性质和如何应用于逻辑回归模型中,通过绘制两类和三类莺尾花的决策边界展示逻辑回归的工作原理。此外,讨论了在特征单一情况下,逻辑回归的不足以及通过添加多项式特征来改进模型的必要性,并简要提及了多分类问题中的OVR和OVO策略。
摘要由CSDN通过智能技术生成
import numpy as np
import matplotlib.pyplot as plt

%matplotlib
%matplotlib inline
%config InlineBackend.figure_format = 'retina'
Using matplotlib backend: MacOSX

逻辑回归(Logistic Regression), 是使用回归的实现的分类算法,只能解决二分类问题. 在Kaggle竞赛中,LR算法以63.5,荣获"出场率最高算法"

p ^ = f ( x ) y ^ = { 1 , p ^ ≥ 0.5 0 , p ^ ≤ 0.5 \hat{p}=f(x) \quad \hat{y}=\left\{\begin{array}{ll} 1, & \hat{p} \geq 0.5 \\ 0, & \hat{p} \leq 0.5 \end{array}\right. p^=f(x)y^={ 1,0,p^0.5p^0.5

假定f(x)为一个线性回归问题,他的值域(-infinity,+infinity)

f ( x ) = x b ⋅ θ f(x)= x_{b} \cdot \theta f(x)=xbθ

使用Sigmoid函数限定为概率的值域[0,1]

σ ( t ) = 1 1 + e − t \sigma(t)=\frac{1}{1+e^{-t}} σ(t)=1+et1

Sigmoid函数

σ ( t ) = 1 1 + e − t \sigma(t)=\frac{1}{1+e^{-t}} σ(t)=1+et1

值域(0,1)

  • t0时候, p=0.5
  • t>0时候, p>0.5
  • t<0时候, p<0.5
# 返回e的幂次方,e是一个常数为2.71828。将线性方程转化为0-1之间的概率。
def sigmoid(t):
    return 1.0 / (1+np.exp(-t))

x = np.linspace(-10, 10, 500)
plt.plot(x, sigmoid(x))
plt.show()

[外链图片转存失败,源站可能有防盗链机制,建议将图片保存下来直接上传(img-FAj8wPXn-1585046093469)(output_4_0.png)]

实现逻辑回归

逻辑回归的模型

p ^ = σ ( f ( x ) ) = σ ( x b ⋅ θ ) = 1 1 + e x b ⋅ θ \hat{p}=\sigma\left(f(x)\right)=\sigma\left(x_{b} \cdot {\theta}\right)=\frac{1}{1+e^{x_{b} \cdot {\theta}}} p^=σ(f(x))=σ(xbθ)=1+exbθ1

y ^ = { 1 , p ^ ≥ 0.5 0 , p ^ ≤ 0.5 \hat{y}=\left\{\begin{array}{ll} 1, & \hat{p} \geq 0.5 \\ 0, & \hat{p} \leq 0.5 \end{array}\right. y^={ 1,0,p^0.5p^

评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值