机器学习1之逻辑回归正则化二周考攻略

本文详细介绍了逻辑回归的正则化,包括数据预处理、Sigmoid函数实现、代价函数与L2正则化、梯度下降算法、代价损失函数曲线对比、模型预测与准确率计算,以及不同正则化系数下特征的0-1分布图。通过实例代码和注释,帮助读者深入理解逻辑回归正则化的应用。
摘要由CSDN通过智能技术生成

题目

1.完成数据预处理:数据集的提取和初始化/标准化(8分)
-数据集的读取(4分)
-数据集的初始化/标注化(4分)
2.实现Sigmoid函数,并画出该函数图像(8分)
3.实现逻辑回归的代价函数,实现L2正则化逻辑回归(10分)
-函数参数定义正确(2分)
-代价函数公式书写正确(4分)
-正则化公式书写正确(4分)
4.实现梯度下降函数, 要求迭代15000次,输出每迭代100次的代价函数值(24分)
-函数参数定义正确4分
-梯度代价函数书写正确8分
-梯度下降算法书写正确8分
-每迭代100次输出代价函数值4分
5.分别画出正则化系数=0和=1.6的代价损失函数曲线对比图(10分)
6.通过梯度下降计算得到回归模型,用所得模型对测试集的数据进行预测,并计算准确率(24分)
-正确调用训练数据计算模型8分
-计算测试集数据的预测结果8分
-计算准确率8分
7.选择X1,X2两组特征,分别画出正则化系数=0 和=1.6时逻辑回归0-1分布图(16分)
-正确画出=0真实值4分
-正确画出=0预测值4分
-正确画出=1.6真实值4分
-正确画出=1.6预测值4分

代码实现及注释

# 导入包
import numpy as np
from matplotlib import pyplot as plt
# 设置中文字体和负号正确显示
plt.rcParams['font.sans-serif'] = ['SimHei']
plt
评论 1
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值