吴恩达机器学习(Andrew Ng的公开课)
文章平均质量分 83
秃头少女Emily
这个作者很懒,什么都没留下…
展开
-
15.OCR
Photo OCR:照片 光学字符识别(photo optical character recognition)如何实现OCR?这样的步骤就成为了机器学习流水线。原创 2023-06-26 11:31:48 · 439 阅读 · 0 评论 -
14.处理大数据集
假设你正在使用梯度下降来训练一个线性回归模型当m个样本的m很大时,求和计算量太大了。这种梯度下降算法有另外一个名字叫做批量梯度下降(batch gradient desent)。这种算法每次迭代需要使用全量训练集,直到算法收敛。随机梯度下降算法对每个数据分开处理,对一个数据更新所有的参数。梯度下降算法是在每次更新参数的时候,需要计算所有数据。对比下来SGD(随机梯度下降)的速度要快一些,不过收敛性可能没GD(梯度下降)好。原创 2023-06-20 15:34:55 · 509 阅读 · 0 评论 -
13.推荐系统
例如一个电影推荐系统,一共有n个用户,m个电影,每部电影都有一定的特征,例如爱情片的比例、动作片的比例。n个用户对看过的电影进行评分,推荐系统如何给用户推荐新电影,预测用户对新电影的评分?预测一个给电影打分的系统。则推荐系统的问题是:给出了和数据,然后去查找那些没有被评级的电影并试图预测这些电影的评价星级。原创 2023-06-19 20:02:29 · 286 阅读 · 0 评论 -
12.异常检测
假设有一个数据集,其中有m个样本,从,假设它们都是实数。参数估计就是:猜测这些样本来自一个高斯分布的总体,每个样本服从高斯分布(),通过给定的数据集能够估算出和。(极大似然估计)其中可以替换成。原创 2023-06-12 21:33:47 · 593 阅读 · 1 评论 -
11.无监督学习之主成分分析
降维的两种应用:一是数据压缩;二是可视化数据。原创 2023-06-09 20:21:17 · 1096 阅读 · 0 评论 -
10.无监督学习之K-means算法
监督学习:我们有一些列标签,然后用假设函数去拟合它无监督学习:给出的数据不带任何标签。对于无监督学习来说,需要做的就是将数据输入到算法中,让算法找到一些隐含在数据中的结构,通过图中的这些数据,能通过算法找到一个结果就是这个数据集中的点可以分成两组分开的点集(簇)。这种能分出来的簇的算法被称为聚类算法。原创 2023-06-08 11:31:20 · 400 阅读 · 0 评论 -
9. 支持向量机(SVM)
在逻辑回归中做一些小改动变成支持向量机。如果观察逻辑回归的代价函数,会发现每个样本(x,y)都会为总的代价函数增加如下图这一项。因此对于总的代价函数,我们通常对所有的训练样本从第1项到第m项进行求和。图中的这一表达式就代表每个单独的训练样本对逻辑回归的总体目标函数所作的贡献。本部分就是把逻辑回归中的损失函数变为更简单的cost1、cost0,经过变换形成了SVM的代价函数。支持向量机在逻辑回归的基础上简化了代价函数,逻辑回归使用正则项来权衡θ的大小,以此解决过拟合的问题。原创 2023-06-07 15:10:10 · 725 阅读 · 0 评论 -
8. 机器学习系统设计
假设你想建立一个垃圾邮件分类器,通过监督学习来构造一个分类器来区分垃圾邮件和非垃圾邮件。为了应用监督学习,首先要想的就是:如何来表示邮件的特征向量x,通过特征向量x和分类标签y,我们就能训练一个分类器,比如使用逻辑回归的方法。这里有一种选择邮件的特征向量的方法:我们可以提出一个可能包含100个单词的列表,通过这些单词来区分垃圾邮件或非垃圾邮件。原创 2023-05-18 15:39:14 · 412 阅读 · 0 评论 -
7.机器学习诊断法
怎样评估机器学习算法的性能?利用机器学习诊断法来评估机器学习算法的性能。诊断法是一种测试法,通过这种测试能够了解算法在哪里出了问题,这也能够告诉我们要想改进一种算法的效果、什么样的尝试才是有意义的。原创 2023-05-18 09:30:37 · 247 阅读 · 0 评论 -
6. 神经网络
假设有一个监督学习分类问题,训练集如图如果利用logistic回归来解决这个问题,我们可以构造一个包含很多非线性项的logistic回归函数。但在这个训练集只给出了两个特征,如果一旦特征变多了,多项式就会变得很多。就会出现过拟合、计算量大的问题。以识别一张图片是否为汽车为例子:对于识别图像中的一个门把手,对于我们人来说一下子就能看出来,但是对于计算机则是要通过一个像素亮点矩阵来告诉我们这些数值代表一个汽车门把手。原创 2023-05-09 10:47:33 · 1473 阅读 · 0 评论 -
5.过拟合问题
还是用那个线性回归的房子预测最右边的图像看起来拟合的很好,但是实际上它不停上下波动。这种问题我们称之为过度拟合,这个算法具有高方差。过度拟合问题将会在变量过多的时候出现,这时训练出的假设能很好地拟合训练集,所以代价函数实际上可能非常接近于0。但这样就会遇到最右边的情况,它千方百计地拟合训练集导致它无法泛化(一个假设模型应用到新样本的能力)到新的样本中无法预测新样本的价格。这样的情况也同样适用于逻辑回归(logistic regression)原创 2023-04-19 14:53:53 · 63 阅读 · 0 评论 -
4. 分类
将线性回归应用于分类问题不是一个很好的选择,如果“运气好”会得到好的预测运气不好就是不好的结果或者说很差的预测。Logistic Regression(一种分类算法)可以将的输出值控制在[0, 1]之间。原创 2023-04-18 11:43:05 · 49 阅读 · 0 评论 -
3. 多功能版线性回归
根据上一节得知我们可以根据房子的大小来对房子估价。在这一节,我们拥有房子更加精确的信息:面积(x1)、卧室的数量(x2)、楼层数(x3)、房子的年龄(x4)等。原创 2023-04-14 20:27:32 · 60 阅读 · 0 评论 -
2. 代价函数与梯度下降
训练集m假设函数::表示模型参数在这里我们要做的就是怎么样去选择,选择不同会得到不同的假设、不同的假设函数。如下如果出现下图:问:怎么样得这两个参数,让假设函数表示的直线尽量地与这些数据点很好的拟合?原创 2023-04-11 14:30:52 · 168 阅读 · 0 评论 -
1. 机器学习的应用与定义
学习!原创 2023-03-30 17:10:15 · 120 阅读 · 0 评论