Labs
相关资源
我已上传,请查找资源[吴恩达机器学习2022 supervised machine learning week1 C2 作业]
- C1_W2_Lab03_Feature_Scaling_and_Learning_Rate_Soln
A learning rate of 0.1 is a good start for regression with normalized features.
- C1_W2_Lab04_FeatEng_PolyReg_Soln
- C1_W2_Lab05_Sklearn_GD_Soln
- C1_W2_Lab06_Sklearn_Normal_Soln
sklearn实现梯度下降的线性回归
1.np.set_printoptions(precision=number)
控制Python中小数的显示精度
precision控制输出结果的精度(即小数点后的位数),默认值为8
2.sklearn实现梯度下降的线性回归sklearn
的梯度下降回归模型sklearn.linear_model.SGDRegressor
,当模型的输入是经过规范化的,此时模型的准确性表现的最好。sklearn.preprocessing.StandardScaler
模块执行z-score
规范化
from sklearn.linear_model import LinearRegression, SGDRegressor
from sklearn.preprocessing import StandardScaler
# 标准化输入数据
scaler = StandardScaler()
X_norm = scaler.fit_transform(X_train)
# 拟合模型
# 需要注意的是fit函数接收的是(m,n)数组,m代表元素的个数,n代表特征的个数
# 如果x_train是一维数组的话,需要对其进行转置后再传入fit函数
sgdr = SGDRegressor(max_iter=1000)
sgdr.fit(X_norm, y_train)
# 通过fit,我们获取到拟合后的参数
b_norm = sgdr.intercept_
w_norm = sgdr.coef_
# 预测数据
y_pred_sgd = sgdr.predict(X_norm)
特征工程与多项式回归
2.
sklearn实现正规方程的线性回归
# 使用LinearRegression创建回归对象,拟合模型
linear_model = LinearRegression()
#X must be a 2-D Matrix
linear_model.fit(X_thape(-1, 1), y_train)
# 获取拟合后的参数
b = linear_model.intercept_
w = linear_model.coef_
学习笔记
PART1 Supervised Machine Learning:Regression and Classification week3
1.1 动机与目的
1.二元分类
2.图中的线我们一般称之为决策线
1.2 逻辑回归 logistic function
1.逻辑回归的模型公式
2.有时候通过逻辑回归得到的值可能是0.7,这意味着患者得癌症的概率是0.7,那么同时也意味着患者不患癌症的概率一定是0.3,根据概率公式(如下图中)可知