机器学习
Yangshengming_zZ
这个作者很懒,什么都没留下…
展开
-
机器学习 神经网络(Neural Networks)
神经网络1 非线性假设1 非线性假设对于我们之前学习过的无论是线性回归还是逻辑回归都有一个这样的缺点,就是当特征太多时,计算的负荷会特别大。尤其是数据并不具有线性关系并且无法直观观察其具有的多项式性质,如下面:我们在之前的章节中使用过多项式回归,对回归模型中添加多项式项,但是我们仅仅对两个特征添加多项式项就会使得程序运行的效率大大下降,假如我们有100个特征,我们希望使用这100个特征去构建我们的非线性的预测模型,结果的数量级会是令人震惊的,仅仅引入二次项就会使得100个特征变成5000个特征,这对原创 2020-09-28 21:07:20 · 704 阅读 · 0 评论 -
机器学习 主成分分析(Principal Component Analysis)
主成分分析1 什么是主成分分析2 实现自己的PCA算法1 什么是主成分分析主成分分析法是一个非监督学习的机器学习算法,主要用于数据的降维,对于高维数据,通过降维,可以发现更便于人类理解的特征。这里我们还是从二维数据去开始理解:当我们对高维数据降低到低维数据时,我们就要把多个轴合成一个轴,如果我们相对上图中的数据进行降维使其变为一维,如果我们直接将其映射到其中一个轴上时,会丢掉太多的信息,我们的任务就是在数据降维的同时还要保留尽可能多的信息,于是我们找到了上图中红线作为我们降维之后的坐标轴,那我们是如原创 2020-09-20 11:31:32 · 1728 阅读 · 0 评论 -
机器学习 逻辑回归(Logistic Regression)
逻辑回归1 什么是逻辑回归2 逻辑回归的代价函数(损失函数)在解决分类问题时,如何用解决回归问题的方法来解决一个分类问题呢?那么逻辑回归会是一个很好的方法,逻辑回归将样本的特征和样本发生的概率联系起来,概率表示分类类别。1 什么是逻辑回归在线性回归中,我们得到的预测值形如:y^=f(x)\hat y=f(x)y^=f(x)得到的预测值可以作为回归结果输出,但逻辑回归的目的是为了分类,所以我们就要改造的我们函数:p^=f(x)\hat p = f(x)p^=f(x)这时我们得到的概率,再将概率映射到原创 2020-09-17 14:45:42 · 387 阅读 · 0 评论 -
机器学习 线性回归法(Linear Regression)与梯度下降法(Gradient Descent)
线性回归法与梯度下降法1 线性回归理论推导2 简单线性回归的实现3 衡量线性回归的指标4 多元线性回归和正规方程解机器学习算法分为分类算法和回归算法,这一章节学习的是线性回归法,通过学习线性回归法可以对机器学习的过程有一个很好的认知,同时梯度下降法并不是一种机器学习方法,但结合线性回归法可以很好的理解。1 线性回归理论推导当我们拿到样本数据集时,线性回归法的任务就是寻找一条直线,最大程度的拟合样本特征和样本输出标记之间的关系,回归问题的输出标记要使用一个坐标轴。这里我们从最简单的情况入手,假设样本只原创 2020-09-10 16:47:03 · 1480 阅读 · 0 评论