![](https://img-blog.csdnimg.cn/20201014180756925.png?x-oss-process=image/resize,m_fixed,h_64,w_64)
吴恩达机器学习
文章平均质量分 87
Patarw_Li
在读小白一枚
展开
-
机器学习编程作业(二)逻辑回归(Logistic Regression)
目录 作业结构 一、逻辑回归(Logistic Regression) 1.1、可视化数据(Visualizing the data) 1.2、逻辑函数(Logistic function or sigmoid function) 1.3、代价函数和梯度(Cost function and gradient) 1.4、高级优化算法 1.5、逻辑回归的预测 二、正则化的逻辑回归 2.1、可视化数据(Visualizing the data) 2.2、代价函数和梯度(Cost functi.原创 2022-04-05 22:07:39 · 1832 阅读 · 0 评论 -
过拟合问题(The Problem of Overfitting)
一、过拟合问题(The Problem of Overfitting) 过拟合的定义:当变量过多的时候,我们的假设函数可能会很好地拟合我们的数据集(上面第三个图像),代价函数非常接近0,但该假设函数却无法泛化到新的例子(也就是说对于新的输入,不能很好地预测其输出),就称其为过拟合。 下面举几个例子 对于回归问题,有三种情况,第一种是选取的假设函数过于简单,导致拟合程度不够,称为欠拟合(下面第一个图);第二种情况是为正常情况,假设函数能很好的拟合数据集,并且对于新的样例能够很好地预测输出(下面第二.原创 2022-04-05 09:29:18 · 1036 阅读 · 0 评论 -
逻辑回归(Logistic Regression)二
在分类问题中,如果我们有一组训练集,那么如何根据这个训练集来选择合适的参数θ呢? 在回归问题中我们使用到了代价函数来衡量假设函数与数据集的拟合程度,使用梯度下降算法来找到代价函数的局部最小值从而得到合适的参数θ,而在分类问题中,我们同样使用代价函数和梯度下降算法。 一、代价函数 对于线性回归模型,我们定义的代价函数J(θ)为: 但是对于逻辑回归模型,我们不能使用上面的代价函数,否则会造成代价函数图像变成下图左方的形式,我们称之为非凸函数(non-convex function): 注.原创 2022-04-03 21:59:34 · 1221 阅读 · 0 评论 -
逻辑回归(Logistic Regression)一
一、分类问题 与回归问题不同,分类问题中要预测的输出是一个离散值,比如说判断一封电子邮件是否为垃圾邮件、判断一个肿瘤是良性还是恶性。 下面以肿瘤预测为例子,我们可以根据一个肿瘤的大小来预测一个肿瘤是良性还是恶性。现在我们有一组数据集(下面图中的红叉叉),我们可以将线性回归使用到这个数据集上,比如说用一条直线来拟合这个数据集,然后设置一个门限,让输出大于0.5的为恶性,输出小于0.5的为良性,这样貌似是可行的。 但是当我们再加入一个新的数据(下图最右边的红叉叉),此时再使用线性回归的话,得到的假设函原创 2022-04-02 21:27:01 · 1049 阅读 · 0 评论