吴恩达机器学习 目标18天完成 8.16 Day6

Labs

相关资源

我已上传,请查找资源[吴恩达机器学习2022 supervised machine learning week1 C2 作业]

  • C1_W2_Lab03_Feature_Scaling_and_Learning_Rate_Soln

A learning rate of 0.1 is a good start for regression with normalized features.

  • C1_W2_Lab04_FeatEng_PolyReg_Soln
  • C1_W2_Lab05_Sklearn_GD_Soln
  • C1_W2_Lab06_Sklearn_Normal_Soln

sklearn实现梯度下降的线性回归

1.np.set_printoptions(precision=number)控制Python中小数的显示精度
precision控制输出结果的精度(即小数点后的位数),默认值为8
2.sklearn实现梯度下降的线性回归
sklearn的梯度下降回归模型sklearn.linear_model.SGDRegressor,当模型的输入是经过规范化的,此时模型的准确性表现的最好。
sklearn.preprocessing.StandardScaler模块执行z-score规范化

from sklearn.linear_model import LinearRegression, SGDRegressor
from sklearn.preprocessing import StandardScaler
# 标准化输入数据
scaler = StandardScaler()
X_norm = scaler.fit_transform(X_train)

# 拟合模型
# 需要注意的是fit函数接收的是(m,n)数组,m代表元素的个数,n代表特征的个数
# 如果x_train是一维数组的话,需要对其进行转置后再传入fit函数
sgdr = SGDRegressor(max_iter=1000)
sgdr.fit(X_norm, y_train)
# 通过fit,我们获取到拟合后的参数
b_norm = sgdr.intercept_
w_norm = sgdr.coef_

# 预测数据
y_pred_sgd = sgdr.predict(X_norm)

特征工程与多项式回归

在这里插入图片描述
2.
在这里插入图片描述

sklearn实现正规方程的线性回归

# 使用LinearRegression创建回归对象,拟合模型
linear_model = LinearRegression()
#X must be a 2-D Matrix
linear_model.fit(X_thape(-1, 1), y_train) 
# 获取拟合后的参数
b = linear_model.intercept_
w = linear_model.coef_

学习笔记

PART1 Supervised Machine Learning:Regression and Classification week3

1.1 动机与目的

1.二元分类
image.png
2.图中的线我们一般称之为决策线
image.png

1.2 逻辑回归 logistic function

1.逻辑回归的模型公式IMG_7016.PNG
2.有时候通过逻辑回归得到的值可能是0.7,这意味着患者得癌症的概率是0.7,那么同时也意味着患者不患癌症的概率一定是0.3,根据概率公式(如下图中)可知
IMG_7017.PNG

评论 1
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值