机器学习课程学习博客:逻辑回归

介绍

逻辑回归(Logistic Regression)是一种用于二分类问题的监督学习算法。尽管名字中带有“回归”,但逻辑回归实际上是一种分类算法。它通过学习一个线性决策边界,使用sigmoid函数将输出映射到概率值,从而进行分类。

逻辑回归的基本概念

什么是逻辑回归?

逻辑回归是一种统计模型,用于描述一个二分类因变量与一个或多个自变量之间的关系。其核心思想是使用sigmoid函数将线性回归的输出转换为一个概率值,从而实现分类。

Sigmoid函数

逻辑回归使用sigmoid函数将线性组合的特征值转换为0到1之间的概率值。sigmoid函数的公式为:

\sigma \left ( z \right )=\frac{1}{1+^{_e{-z}}}

其中,z=\beta _0{}+\beta _1{}x_1{}+\beta _2{}x_2{}+...+\beta _n{}x_n{}

损失函数

逻辑回归使用交叉熵损失函数来评估模型的性能。其公式为:

L\left ( \beta \right )=-\frac{1}{m}\sum_{i=1}^{m} \left [ y_i{}log(h_\beta {}(x_i{})) +(1-y_i{})log(1-h_\beta {}(x_i{})) \right ]

其中,h_\beta {}(x_i{})是预测的概率值。

逻辑回归的实现步骤

数据准备

首先,准备并加载数据集。以鸢尾花数据集为例,我们使用其中的两个类别(Setosa和Versicolor)进行二分类。

import pandas as pd
from sklearn.datasets import load_iris
from sklearn.model_selection import train_test_split

# 加载数据集
iris = load_iris()
X = iris.data[:100, :2]  # 只取前100个样本和前两个特征
y = iris.target[:100]

# 数据集划分
X_train, X_test, y_train, y_test = train_test_split(X, y, test_size=0.2, random_state=42)

模型训练

使用Scikit-Learn中的逻辑回归模型进行训练。

from sklearn.linear_model import LogisticRegression

# 创建逻辑回归模型
model = LogisticRegression()

# 训练模型
model.fit(X_train, y_train)

模型评估

评估模型的性能,使用准确率作为评估指标

from sklearn.metrics import accuracy_score

# 预测
y_pred = model.predict(X_test)

# 评估准确率
accuracy = accuracy_score(y_test, y_pred)
print(f'模型准确率: {accuracy:.2f}')

总结

逻辑回归是一种简单而强大的分类算法,适用于二分类问题。通过学习这门课程,我们了解了逻辑回归的基本概念、数学原理和实现步骤,并通过实际案例展示了其广泛的应用场景。希望这篇博客能够帮助你更好地理解和应用逻辑回归模型

  • 3
    点赞
  • 5
    收藏
    觉得还不错? 一键收藏
  • 0
    评论
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值