机器学习
名字被猪吃掉了
这个作者很懒,什么都没留下…
展开
-
吴恩达机器学习 -- 多变量线性回归
5.1 多维特征前一周所讲是单变量线性回归,即 ,是只有一个变量 的假设函数,现在对房价预测模型有了更多的参考特征,比如楼层数,卧室的数量,还有房子的使用年限。根据这些特征来预测房价。此时的变量有多个。 构成一个含有多个变量的模型,模型中的特征为 一些注释::特征的数量 :第 i 个样本的特征向量:第 i 个样本的 特征向量中的第 j 个特征那么,线性回归的多变量假设函...原创 2019-08-14 17:27:18 · 223 阅读 · 0 评论 -
吴恩达机器学习 -- 逻辑回归(Logistic Regression)
7.1 分类问题如果要预测的变量 是离散值,此时我们应用 logistics regression。在分类问题中,我们对某一事物进行分类,有二分类和多分类问题。此节先讨论二分类问题,即只有两个分类。将因变量(dependent variable)可能属于的两个类分别称为负向类(negative class)和正向类(positive class),则因变量 , 0 表示负向类,1...原创 2019-08-16 09:48:34 · 286 阅读 · 0 评论 -
吴恩达机器学习 -- 正则化
8.1 过拟合的问题过拟合问题会导致线性回归和逻辑回归效果变差,那么过拟合到底是指什么意思呢?一个回归问题的例子:图一的线性回归模型,欠拟合;图三的逻辑回归模型虽然经过了所有的样本点,但是它预测新数据时却效果很差,因为它过于强调拟合原始数据。这种情况就叫做过拟合。可以看出,若给出一个新的值使之预测,它将表现的很差,是过拟合,虽然能非常好地适应我们的训练集但在新输入变量进行预测时可...原创 2019-08-16 11:21:39 · 150 阅读 · 0 评论 -
吴恩达机器学习 -- 神经网络学习
9.1 非线性假设无论是线性回归还是逻辑回归都有这样一个缺点,即:当特征太多时,计算的负荷会非常大。吴恩达老师举了一个例子:当我们使用 的多次项式进行预测时,我们可以应用的很好。 之前课程学习过,使用非线性的多项式项,能够建立更好的分类模型。假设有非常多的特征,例如大于100个变量,希望用这100个特征来构建一个非线性的多项式模型,结果将是数量非常惊人的特征组合,即便只采用两两特征...原创 2019-08-18 20:08:32 · 960 阅读 · 0 评论