吴恩达
文章平均质量分 91
张三生♂
这个作者很懒,什么都没留下…
展开
-
【吴恩达02-2】过拟合、正则化losgitic回归
首先总结一下过拟合(高方差、低偏差)的几种解决方法:减少变量选取,即降低特征维度,但这种方法减少了变量的获取。 正则化:保留所有特征,但是减少量级或参数theta的值 增加数据丰富度,如果是图像问题就可以进行数据增强 归一化数据: 测试集的归一化的均值和标准偏差应该来源于训练集。如果你熟悉Python的sklearn的话,你就应该知道应该先对训练集数据fit,得到包含均值和标准偏差的scaler,然后再分别对训练集和验证集transform。这个问题其实很好,很多人不注意,最容易犯的错误就原创 2021-04-18 23:57:03 · 432 阅读 · 1 评论 -
【吴恩达02-1】losgitic回归
复习总结关于logistic回归的相关原理及实现:简单来讲,Logistic回归主要是用在二分类方面的问题,用于估计某种事物的可能性。比如,用户买不买某件商品的可能性;某广告被用户点击的可能性;但是,这里的可能性并非是指概率,logistic回归的结果并不是数学上的概率值,不可以直接当做概率来用。一般来讲,logistic回归得到的结果都是与其他的特征值加权求和,而不是直接相乘。Logistic回归的主要思想是:针对线性可分问题,根据所给的样本数据,对分类边界建立一个回归公式,输入新的样本之原创 2021-04-12 21:46:48 · 342 阅读 · 2 评论 -
【吴恩达01】线性回归,梯度下降算法的实现
使用梯度下降算法计算线性回归模型的权重,代码如下:import matplotlib.pyplot as pltimport numpy as npimport pandas as pd# 文件中只含有一个变量与一个预测值path = '~/condaProject/WUENDA/work1/ex1data1.txt'data = pd.read_csv(path, header=None, names=['Population', 'Profit'])data.head()# 可视化原创 2021-03-26 21:25:39 · 243 阅读 · 0 评论