逻辑回归(Logistic Regression)和支持向量机

在机器学习中,逻辑回归(Logistic Regression)和支持向量机(Support Vector Machines, SVM)是两种常用的分类算法。下面分别对它们的类型、库或模块、实现原理以及运用场景进行分析,并提供相应的Python代码演示。

逻辑回归:
1. 二分类逻辑回归(Binary Logistic Regression):适用于将数据分为两个类别的问题。
- 库/模块:scikit-learn
- 实现原理:逻辑回归通过使用Sigmoid函数将线性回归的结果映射到概率值(0到1之间),从而进行分类。

- 运用场景:例如,判断邮件是垃圾邮件还是非垃圾邮件、肿瘤是恶性还是良性等。
- Python代码演示:


from sklearn.linear_model import LogisticRegression
from sklearn.datasets import load_iris
from sklearn.model_selection import train_test_split
from sklearn.metrics import accuracy_score

# 加载鸢尾花数据集
X, y = load_iris(return_X_y=True)

# 划分训练集和测试集
X_train, X_test, y_train, y_test = train_test_split(X, y, test_size=0.2, random_state=42)

# 创建一个二分类逻辑回归模型对象
model = LogisticRegression()

# 对模型进行训练
model.fit(X_train, y_train)

# 进行预测
y_pred = model.predict(X_test)

# 计算准确率
accuracy = accuracy_score(y_test, y_pred)

# 打印准确率
print("Accuracy:", accuracy)

2. 多分类逻辑回归(Multinomial Logistic Regression):适用于将数据分为多个类别的问题。
- 库/模块:scikit-learn
- 实现原理:多分类逻辑回归通过将多个二分类逻辑回归结合起来,使用Softmax函数将线性回归的结果转换为概率分布,进行多分类问题的预测。

- 运用场景:例如,手写数字识别、图像分类等。
- Python代码演示:


from sklearn.linear_model import LogisticRegression
from sklearn.datasets import load_digits
from sklearn.model_selection import train_test_split
from sklearn.metrics import accuracy_score

# 加载手写数字数据集
X, y = load_digits(return_X_y=True)

# 划分训练集和测试集
X_train, X_test, y_train, y_test = train_test_split(X, y, test_size=0.2, random_state=42)

# 创建一个多分类逻辑回归模型对象
model = LogisticRegression(multi_class='multinomial')

# 对模型进行训练
model.fit(X_train, y_train)

# 进行预测
y_pred = model.predict(X_test)

# 计算准确率
accuracy = accuracy_score(y_test, y_pred)

# 打印准确率
print("Accuracy:", accuracy)


支持向量机:
1. 支持向量机分类器(Support Vector Classification, SVC):适用于二分类问题,构建一个最优的超平面来将数据点分开。
- 库/模块:scikit-learn
- 实现原理:SVM通过最大化边界与支持向量的距离来找到一个最优的超平面,从而实现分类。

- 运用场景:例如,人脸识别、文本分类等。
- Python代码演示:

from sklearn.svm import SVC
from sklearn.datasets import load_iris
from sklearn.model_selection import train_test_split
from sklearn.metrics import accuracy_score

# 加载鸢尾花数据集
X, y = load_iris(return_X_y=True)

# 划分训练集和测试集
X_train, X_test, y_train, y_test = train_test_split(X, y, test_size=0.2, random_state=42)

# 创建支持向量机模型对象
model = SVC()

# 模型训练
model.fit(X_train, y_train)

# 进行预测
y_pred = model.predict(X_test)

# 计算准确率
accuracy = accuracy_score(y_test, y_pred)

# 打印准确率
print("Accuracy:", accuracy)

  • 0
    点赞
  • 1
    收藏
    觉得还不错? 一键收藏
  • 1
    评论
逻辑回归支持向量机(SVM)是两种常见的线性分类算法逻辑回归通过 logistic regression 模型实现,而线性支持向量机则通过 linear support vector machine(线性 SVM)实现。逻辑回归和线性支持向量机都是通过找到一个超平面来将数据分为不同的类别。\[1\] 逻辑回归支持向量机在处理异常点时有一些不同。引入松弛变量后,支持向量机可以容忍异常点的存在。因为引入松弛变量后,所有点到超平面的距离约束不需要大于等于1,而是大于0.8就可以了。这意味着异常点可以不被视为支持向量,而是作为普通点存在,不会对支持向量和超平面产生影响。\[2\] 对于逻辑回归和线性支持向量机,正则化强度由参数 C 决定。C 值越大,对应的正则化越弱。换句话说,如果参数 C 值较大,逻辑回归和线性支持向量机将尽可能将训练集拟合到最好;而如果 C 值较小,模型更强调使系数向量(w)接近于0,即更强调正则化。\[3\] #### 引用[.reference_title] - *1* *3* [逻辑回归( LogisticRegression)和线性支持向量机(LinearSVC)](https://blog.csdn.net/qq_51228515/article/details/121926632)[target="_blank" data-report-click={"spm":"1018.2226.3001.9630","extra":{"utm_source":"vip_chatgpt_common_search_pc_result","utm_medium":"distribute.pc_search_result.none-task-cask-2~all~insert_cask~default-1-null.142^v91^insert_down28v1,239^v3^insert_chatgpt"}} ] [.reference_item] - *2* [机器学习之逻辑回归支持向量机](https://blog.csdn.net/gzn00417/article/details/109754032)[target="_blank" data-report-click={"spm":"1018.2226.3001.9630","extra":{"utm_source":"vip_chatgpt_common_search_pc_result","utm_medium":"distribute.pc_search_result.none-task-cask-2~all~insert_cask~default-1-null.142^v91^insert_down28v1,239^v3^insert_chatgpt"}} ] [.reference_item] [ .reference_list ]
评论 1
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值