深度学习(二):逻辑回归算法模型与实战

1.1、回归与分类的区别

在机器学习中分为有监督学习和无监督学习。

有监督学习是带有标签的,而无监督学习只需要输入一些数据

有监督分为回归和聚类

分类的输出是已知类别(在一定的集合中确定)

回归的输出是不确定的

1.2、逻辑回归算法原理

注:虽然逻辑回归里面有回归两个字,但是它是完成二分类的任务

 

 逻辑回归可以理解为利用回归的方法去进行分类

sigmod函数中的自变量z是连续的从负无穷到正无穷,值域是从0到1,所以可以看成百分比,根据阈值进行二分类

 1.3、损失函数

 1.4、w参数更新

1.5、b参数更新 

 1.6、分类和回归模型评价指标

 MAPE:

回归模型的评价指标都差不多,一般情况下采用均方根误差和MAPE

1.7、逻辑回归实战

1.7.1、归一化

假设一份数据有特征并不唯一,即可能x1、x2、x3.......

因为特征代表物理量,所以它的物理量表示和量纲并不一样,无论是在机器学习还是在深度学习模型都会认为数值越大的特征越重要,但是实际上并不是一定是最重要的。因此需要归一化

方法是:

所有数据都是在0-1之间,所以就避免了量纲和物理量的影响

1.7.2、实战代码

import numpy as np
import pandas as pd
from sklearn.model_selection import train_test_split
from sklearn.preprocessing import MinMaxScaler
from sklearn.linear_model import LogisticRegression
from sklearn.metrics import classification_report

# 读取数据
dataset = pd.read_csv("breast_cancer_data.csv")
# print(dataset)

# 提取x
X = dataset.iloc[:, : -1]
# print(X)

# 提取数据中的标签
Y = dataset['target']
# print(Y)

# 划分数据集和测试集
x_train, x_test, y_train, y_test = train_test_split(X, Y, test_size=0.2)

# 进行数据的归一化
sc = MinMaxScaler(feature_range=(0, 1))
x_train = sc.fit_transform(x_train)
x_test = sc.fit_transform(x_test)
# print(x_train)


# 逻辑回归模型搭建
lr = LogisticRegression()
lr.fit(x_train, y_train)

# 打印模型的参数
# print('w:', lr.coef_)
# print('b', lr.intercept_)

# 利用训练好的模型进行推理测试
pre_reslut = lr.predict(x_test)
# print(pre_reslut)

# 打印预测结果的概率
pre_reslut_proba = lr.predict_proba(x_test)
# print(pre_reslut_proba)

# 获取恶性肿瘤的概率
pre_list = pre_reslut_proba[:, 1]
# print(pre_list)

# 设置阈值
thresholds = 0.3

# 设置保存结果的列表
result = []
result_name = []

for i in range(len(pre_list)):
    if pre_list[i] > thresholds:
        result.append(1)
        result_name.append('恶性')
    else:
        result.append(0)
        result_name.append('良性')

# 打印阈值调整后的结果
# print(result)
# print(result_name)

# 输出结果的精确率和召回还有f1值
report = classification_report(y_test, result, labels=[0, 1], target_names=['良性肿瘤', '恶性肿瘤'])
print(report)

  • 0
    点赞
  • 1
    收藏
    觉得还不错? 一键收藏
  • 打赏
    打赏
  • 0
    评论
好的,下面我来给你提供一个逻辑回归和K近邻算法的案例实战。 首先,我们需要一个数据集。这里我选取了一个著名的鸢尾花数据集,可以通过sklearn库进行导入。 ```python from sklearn.datasets import load_iris iris = load_iris() X = iris.data y = iris.target ``` 接下来,我们需要将数据集划分为训练集和测试集,并进行标准化处理。 ```python from sklearn.model_selection import train_test_split from sklearn.preprocessing import StandardScaler X_train, X_test, y_train, y_test = train_test_split(X, y, test_size=0.3, random_state=0) sc = StandardScaler() sc.fit(X_train) X_train_std = sc.transform(X_train) X_test_std = sc.transform(X_test) ``` 然后,我们可以使用逻辑回归模型进行分类,并对模型进行评估。 ```python from sklearn.linear_model import LogisticRegression from sklearn.metrics import accuracy_score lr = LogisticRegression(random_state=0) lr.fit(X_train_std, y_train) y_pred_lr = lr.predict(X_test_std) print('Accuracy: %.2f' % accuracy_score(y_test, y_pred_lr)) ``` 接下来,我们使用K近邻算法进行分类,并对模型进行评估。 ```python from sklearn.neighbors import KNeighborsClassifier knn = KNeighborsClassifier(n_neighbors=5) knn.fit(X_train_std, y_train) y_pred_knn = knn.predict(X_test_std) print('Accuracy: %.2f' % accuracy_score(y_test, y_pred_knn)) ``` 以上就是逻辑回归和K近邻算法的简单案例实战。通过比较两种算法的分类准确率,可以对它们的性能进行比较和评估。

“相关推荐”对你有帮助么?

  • 非常没帮助
  • 没帮助
  • 一般
  • 有帮助
  • 非常有帮助
提交
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包

打赏作者

橘子ゆ

你的鼓励将是我创作的最大动力

¥1 ¥2 ¥4 ¥6 ¥10 ¥20
扫码支付:¥1
获取中
扫码支付

您的余额不足,请更换扫码支付或充值

打赏作者

实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值