机器学习——逻辑回归原理(python实现)

目录

一、什么是逻辑回归

1.1逻辑回归定义

1.2 小栗子~(例子)

1.3 代码

二、逻辑回归的实现

三、用逻辑回归分类预测肿瘤

3.1代码

3.2结果


逻辑回归是一种用于有监督学习的分类任务的简单算法,虽然算法的名字为回归,但是逻辑回归常常用于分类

一、什么是逻辑回归

1.1逻辑回归定义

逻辑回归是一种学习某个事件发生概率的算法。利用这个概率,可以对事件进行二元分类。(也可以三种类别以上分类)。因为是概率,所以输出值范围是0-1。

1.2 小栗子~(例子)

比如suo,下雪天我们要不要穿棉鞋出门捏~( ̄▽ ̄)~*?

如果有积雪,我们就穿棉鞋出门,如果雪化了,我们就传平时滴鞋子~!!!

我们用代码模拟一下数据:

X轴代表温度,Y轴代表概率。

其中Y是穿棉鞋的概率。

计算0℃、1℃、2℃ 穿棉鞋的概率

我们随机取100个[-1,3]温度,穿棉鞋可能性的随机点。

用Sigmoid函数 进行拟合:

 最后可以看出,0℃、1℃、2℃ 穿棉鞋的概率分别为:0.06432261,0.45283124,090878457

 所以,可以根据概率判断是否要穿棉鞋。

1.3 代码

import numpy as np
from sklearn.linear_model import LogisticRegression
import matplotlib.pyplot as plt


#np.r_是按列连接两个矩阵,就是把两矩阵上下相加,要求列数相等。
x_train = np.r_[np.random.normal(3,1,size=50),np.random.normal(-1,1,size=50)].reshape((100,-1))
y_train = np.r_[np.ones(50),np.zeros(50)]
x = np.arange(-2,5,0.01).reshape((700,-1))
model =LogisticRegression()
model.fit(x_train,y_train)
plt.xlabel('x', fontsize=18)
plt.ylabel('y', fontsize=18)
plt.plot(x_train,y_train,'o')
plt.plot(x,model.predict_proba(x)[:,1])
print('下雪的可能:',model.predict_proba([[0],[1],[2]])[:,1])
plt.show()

二、逻辑回归的实现

 根据上述可以发现,逻辑回归根据数据x和表示其所属类别的标签y进行学习,计算概率。

逻辑回归的基本思想与线性回归,对数据x乘以权重向量w,再加上偏置w0,计算wTx + w0的值。

与线性回归不同的是,为了计算概率,逻辑回归的输出范围必须限制在0和1之间。逻辑回归使用Sigmoid函数h(z)=1/[z+exp(-z)],返回0和1之间的数值。

逻辑回归分为三步:

step1:根据经验和观察,认为选定某个算法进行尝试;

step2:寻找某些“最佳”参数,从而得到某个具体的“最佳”算法模型;

step3:使用某个具体的“最佳”算法模型进行预测。

比如,上述例子采用的就是Sigmoid函数。

选择好算法后,要计算损失函数值,在线性回归中,损失函数用的是最小二乘法。但是在逻辑回归中,因为表达式是非线性的,采用均方误差会导致求解过程在局部损失最小值出截至,达不到全局最小值。

所以采用如下损失函数:

 之后进行参数估计和正则化。

三、用逻辑回归分类预测肿瘤

3.1代码

from sklearn.datasets import load_breast_cancer
breast_cancer = load_breast_cancer()
breast_cancer
x = breast_cancer.data
y = breast_cancer.target

from sklearn.model_selection import train_test_split
x_train,x_test,y_train,y_test = train_test_split(x,y,random_state=33,test_size=0.3)

from sklearn.preprocessing import StandardScaler
breast_cancer_ss = StandardScaler()
x_train = breast_cancer_ss.fit_transform(x_train)
x_test = breast_cancer_ss.transform(x_test)

from sklearn.linear_model import LogisticRegression
lr = LogisticRegression()
lr.fit(x_train,y_train)
lr_y_predict = lr.predict(x_test)

from sklearn.metrics import classification_report
print('正确率:',lr.score(x_test,y_test))
print(classification_report(y_test,lr_y_predict,target_names=['begin','malignant']))

3.2结果

  • 1
    点赞
  • 33
    收藏
    觉得还不错? 一键收藏
  • 0
    评论
居民出行选择行为可以被视为一个分类问题,其特征包括年龄、性别、收入、出行目的、出行时间、出行距离等。在这里,我们可以使用逻辑回归模型进行预测。 我们可以先收集一些相关数据,然后将其分为训练集和测试集。接着,我们可以使用 Python 的 Scikit-learn 库来构建逻辑回归模型。具体步骤如下: 1. 首先,我们需要导入所需的库: ```python import pandas as pd from sklearn.linear_model import LogisticRegression from sklearn.model_selection import train_test_split from sklearn.metrics import accuracy_score ``` 2. 然后,我们需要加载数据并进行预处理: ```python data = pd.read_csv('travel_behavior.csv') data = data.dropna() # 删除缺失值 data = pd.get_dummies(data, columns=['purpose', 'time']) # 将分类变量转换为哑变量 X = data.drop(['choice'], axis=1) y = data['choice'] ``` 这里,我们使用了 Pandas 库加载数据,并删除了任何包含缺失值的行。然后,我们使用 `get_dummies()` 函数将分类变量转换为哑变量。最后,我们将特征(`X`)和标签(`y`)分开。 3. 接着,我们将数据分为训练集和测试集: ```python X_train, X_test, y_train, y_test = train_test_split(X, y, test_size=0.2) ``` 这里,我们使用了 `train_test_split()` 函数来将数据分为训练集和测试集。我们选择了 20% 的数据作为测试集,而其余的数据则用于训练模型。 4. 然后,我们可以使用逻辑回归模型进行训练: ```python model = LogisticRegression() model.fit(X_train, y_train) ``` 这里,我们使用了 Scikit-learn 库的 `LogisticRegression()` 类来构建逻辑回归模型,并使用 `fit()` 方法将模型拟合到训练数据上。 5. 最后,我们可以使用测试集来评估模型的准确性: ```python y_pred = model.predict(X_test) accuracy = accuracy_score(y_test, y_pred) print('Accuracy:', accuracy) ``` 这里,我们使用 `predict()` 方法来预测测试集的标签,并使用 `accuracy_score()` 函数来计算模型的准确性。 通过以上步骤,我们就可以构建一个简单的逻辑回归模型,用于预测居民出行选择行为。

“相关推荐”对你有帮助么?

  • 非常没帮助
  • 没帮助
  • 一般
  • 有帮助
  • 非常有帮助
提交
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值