吴恩达机器学习摘要
记录学习摘要
gzmgzm_ming
这个作者很懒,什么都没留下…
展开
-
第八、神经网络:表述(Neural Networks: Representation)
8.1 非线性假设 线性回归还是逻辑回归都有这样一个缺点,即:当特征太多时,计算的负荷会非常大 举例:识别视觉对象(汽车),利用很多汽车的图片和很多非汽车的图片,然后利用这些图片上一个个像素的值(饱和度或亮度)来作为特征 假如我们只选用灰度图片,每个像素则只有一个值(而非 RGB值),我们可以选取图片上的两个不同位置上的两个像素,然后训练一个逻辑回归算法利用这两个像素的值来判断图片上是否是汽车;假...原创 2020-02-07 21:41:42 · 305 阅读 · 0 评论 -
七、正则化(Regularization)
7.1 过拟合的问题 已经学习了几种不同的学习算法:线性回归和逻辑回归。会遇到过拟合(over-fitting)的问题,可能会导致它们效果很差 非常多的特征,假设可能能够非常好地适应训练集(代价函数可能几乎为0),但是不能推广到新的数据。 欠拟合:与数据据拟合效果差; 过拟合:与数据集拟合效果很好,但是不能推广到新数据 方法:丢弃一些不能帮助我们正确预测的特征。可以是手工选择保留哪些特征,或者使用...原创 2020-02-07 20:51:20 · 287 阅读 · 0 评论 -
六、逻辑回归(Logistic Regression)
6.1 分类问题 逻辑回归算法,目前最流行使用最广泛的一种学习算法 分类:邮件是否垃圾,金融交易是否敲诈,肿瘤分类 二元分类:因变量(dependent variable),负向类(negative class)和正向类(positive class),用0 表示负向类,1 表示正向类 如果用线性回归算法:函数的输出值可能远大于 1,或者远小于0,会感觉很奇怪。 逻辑回归算法,这个算法的性质是:它...原创 2020-02-07 20:21:33 · 297 阅读 · 0 评论 -
五、机器学习python库
待补充原创 2020-02-07 18:26:32 · 110 阅读 · 0 评论 -
四、多变量线性回归(Linear Regression with Multiple Variables)
4.1 多维特征 房价模型(多特征:如楼层数,房间数,年代)模型特征表示为 n特征数量,下标j表示第j个特征,上标i表示第i个样本(实例) 特征矩阵,1行表示 1个样本,是一个向量;1列表示1个特征的所有值 x(i,j)表示第i个样本的第j个特征。 假设函数h是参数Q和特征的多项式(每个特征本身是一个向量) 4.2 多变量梯度下降 代价函数 类似单变量批量梯度下降 批量梯度下降直到收敛,得...原创 2020-02-07 18:18:22 · 167 阅读 · 0 评论 -
三、机器学习-线性代数回顾(Linear Algebra Review)
3.1 矩阵和向量 4×2矩阵,即4行2列,矩阵的维数即行数×列数 向量是一种特殊的矩阵,讲义中的向量一般都是列向量 3.2 加法和标量乘法 矩阵的加法:行列数相等的可以加 矩阵的标量乘法:每个元素都要乘 3.3 矩阵向量乘法 3.4 矩阵乘法 3.5 矩阵乘法的性质 矩阵的乘法不满足交换律,满足结合律 单位矩阵I或者E 3.6 逆、转置 ...原创 2020-02-07 17:38:49 · 128 阅读 · 0 评论 -
二 、单变量线性回归(Linear Regression with One Variable)
2.1 模型表示 预测住房价格, 2.2 代价函数 如何把最有可能的直线与我们的数据相拟合 模型所预测的值与训练集中实际值之间的差距(下图中蓝线所指)就是建模误差(modeling error) 我们的目标便是选择出可以使得建模误差的平方和能够最小的模型参数。 即使得代价函数最小代价函数也被称作平方误差函数,有时也被称为平方误差代价函数。我们之所以要求出误差的平方和,是因为误差平方代价函数,...原创 2020-02-07 17:19:52 · 122 阅读 · 0 评论 -
一、机器学习概念
引言: 1.1 欢迎机器学习能做什么? 谷歌和微软实现了学习算法来排行网页,Facebook或苹果的图片分类程序,电子邮件垃圾邮件筛选器 机器学习不只是用于人工智能领域,机器人、计算生物学、硅谷中大量的问题,数据库挖掘 自然语言处理或计算机视觉,这些语言理解或图像理解都是属于AI领域。亚马逊或Netflix或iTunes Genius,其他电影或产品或音乐的建议...原创 2020-02-07 16:04:13 · 255 阅读 · 0 评论