吴恩达2014机器学习
文章平均质量分 91
记录吴恩达2014版机器学习教程
水枂
这个作者很懒,什么都没留下…
展开
-
大规模机器学习(十)
参考视频: 19 - 1 - Summary and Thank You (5 min).mkv欢迎来到《机器学习》课的最后一段视频。我们已经一起学习很长一段时间了。在最后这段视频中,我想快速地回顾一下这门课的主要内容,然后简单说几句想说的话。作为这门课的结束时间,那么我们学到了些什么呢?在这门课中,我们花了大量的时间介绍了诸如线性回归、逻辑回归、神经网络、支持向量机等等一些监督学习算法,这类算法具有带标签的数据和样本,比如xixiyiyi。然后我们也花了很多时间介绍无监督学习。例如。原创 2023-08-03 19:40:52 · 996 阅读 · 0 评论 -
异常检测和推荐系统(九)
b站学习链接:传送门 学习视频第15 16章学习目录索引:吴恩达2014课程简介知识补充独立假设独立假设是概率论和统计学中的一个重要概念,用于描述两个或多个随机事件或随机变量之间是否相互独立。在概率论中,两个事件A和B被称为相互独立,如果事件A的发生与否不受事件B的发生与否的影响,反之亦然。换句话说,事件A和事件B的发生是完全独立的,它们之间没有任何关联或依赖关系。对于两个随机变量X和Y,它们被称为相互独立,如果它们的联合概率分布等于它们各自概率分布的乘积。数学上表示为:P(X,Y)=P(原创 2023-08-01 23:34:44 · 350 阅读 · 0 评论 -
聚类和降维(八)
参考视频: 13 - 1 - Unsupervised Learning_ Introduction (3 min).mkv在这个视频中,我将开始介绍聚类算法。这将是一个激动人心的时刻,因为这是我们学习的第一个非监督学习算法。我们将要让计算机学习无标签数据,而不是此前的标签数据。那么,什么是非监督学习呢?在课程的一开始,我曾简单的介绍过非监督学习,然而,我们还是有必要将其与监督学习做一下比较。原创 2023-08-01 23:29:42 · 2477 阅读 · 1 评论 -
支持向量机(七)
b站学习链接:传送门学习视频第12章学习目录索引:吴恩达2014课程简介知识补充支持向量机支持向量机(Support Vector Machine,SVM)是一种常用的监督学习算法,用于进行分类和回归分析。它的目标是找到一个最优的超平面(或者称为决策边界),以在不同类别的数据之间实现最大的间隔。SVM的基本原理如下:线性可分情况:对于线性可分的数据,SVM寻找一个超平面,将不同类别的样本完全分开。这个超平面具有最大的间隔,即离每个类别样本最近的距离最大化。支持向量:支持向量是离超平原创 2023-08-01 23:23:43 · 1160 阅读 · 0 评论 -
应用机器学习的建议(六)
在模型选择那里讲到我们用训练集计算了特征参数,然后把特征参数放进损失函数,在测试集中寻找损失函数的最优值,有一个和上述箭头一样的疑问:为什么不在训练集中寻找模型呢?:::info通常情况下,超参数的选择是在交叉验证集上进行的,而不是在训练集上进行。超参数是在机器学习算法中设置的参数,而不是由模型自动学习得到的。它们决定了模型的结构和学习过程,例如学习率、正则化参数、网络层数等。选择合适的超参数对于模型的性能和泛化能力至关重要。在训练集上选择超参数容易导致过拟合。原创 2023-08-01 23:16:32 · 1127 阅读 · 0 评论 -
神经网络学习(五)
注意向量化的使用,这将使求和问题变得简单可以将反向传播看成是⼀种系统性地应⽤多元微积分中的链式法则来计算代价函数梯度的方法为了计算这些值,首先引入一个中间量δjlδjl,称其为在第lll层第 j个神经元上的误差(error)。这里有一种启发式的认识,∂C∂Zjl∂Zjl∂C**就是对神经元误差的度量(对误差的影响). **按照上述启发,定义第lll层的第j个神经元上的误差δjlδjlδjl≡∂C∂Zjlδj。原创 2023-08-01 23:08:24 · 299 阅读 · 0 评论 -
神经网络概述(四)
学习视频第8章。原创 2023-08-01 23:02:10 · 1047 阅读 · 0 评论 -
逻辑回归和正则化(三)
b站学习链接:传送门学习前视频第6 7章学习目录索引:吴恩达2014课程简介知识补充为什么逻辑回归的输出值在0和1之间?逻辑回归的输出值范围是介于0和1之间。在逻辑回归中,通过将线性回归的输出值通过一个称为逻辑函数(或称为sigmoid函数)的非线性转换,将其映射到一个概率值。g(z)=11+e−zg\left( z \right)=\frac{1}{1+{{e}^{-z}}}g(z)=1+e−z1。其中,h(x) 是逻辑回归的输出,z 是线性回归模型的预测结果。当 z 的值趋近于正无穷大原创 2023-08-01 22:55:51 · 1540 阅读 · 0 评论 -
多变量线性回归(二)
学习视频第4、5章。原创 2023-08-01 22:46:12 · 349 阅读 · 0 评论 -
机器学习概述(一)
知识补充传统的机器学习如何对一个函数求偏导.py和.ipynb的区别环境安装安装包下载开始安装在开始菜单中查看 Anaconda查看信息课堂笔记引言(Introduction)欢迎机器学习是什么?监督学习无监督学习单变量线性回归(Linear Regression with One Variable)模型表示代价函数代价函数的直观理解I代价函数的直观理解II梯度下降梯度下降的直观理解梯度下降的线性回归接下来的内容线性代数回顾(Linear Algebra Review)矩阵和向量加法和标量乘法矩阵向量乘法。原创 2023-08-01 14:25:18 · 1214 阅读 · 0 评论 -
吴恩达2014课程简介
吴恩达的机器学习课程有两个版本,本课程学习的是。原创 2023-08-01 13:51:33 · 214 阅读 · 0 评论