![](https://img-blog.csdnimg.cn/20201014180756724.png?x-oss-process=image/resize,m_fixed,h_64,w_64)
coursera《机器学习》吴恩达
文章平均质量分 80
Tanjiarui15
这个作者很懒,什么都没留下…
展开
-
coursera《机器学习》吴恩达-week1-04 线性代数基础
矩阵 - 概述方括号之间的矩形数组 2D数组被命名为大写字母(A,B,X,Y)矩阵的维数是[行x列]从左上角开始向左下方到右下角R [r*c] 表示具有r行和c列的矩阵 矩阵元素 A (i,j) = 第 i 行和第j列的条目 提供组织,索引和访问大量数据的方法向量 - 概述是n×1矩阵 通常用小写字母表示n行1列例如 是一个四维矢量 将其称为矢量 R4矢量元素翻译 2017-08-17 09:40:42 · 733 阅读 · 0 评论 -
coursera《机器学习》吴恩达-week1-01 课程介绍
本系列翻译自该学习笔记:http://www.holehouse.org/mlclass/index.html 课程地址:https://www.coursera.org/learn/machine-learning/课程介绍学习内容前沿动态如何实现机器学习应用范畴 搜索引擎图片标记垃圾邮件过滤使AI像人类一样聪明的梦想 许多人认为最好的方式是模仿人类如何学习课程涵盖内容翻译 2017-08-10 18:59:29 · 1122 阅读 · 0 评论 -
coursera《机器学习》吴恩达-week1-02 单一变量的线性回归
线性回归根据输入值预测实值输出。我们讨论线性回归在房价预测中的应用,提出了成本函数的概念,并介绍了梯度下降法的学习方法。模型和代价函数 - 线性回归之前的住房价格数据示例监督学习-回归问题 我们从头开始训练集(这是你的数据集)符号(整个过程中使用) m = 训练例数x’s =输入变量/特征y’s =输出变量“target”变量(x,y) - 单一训练示例(x i,y j) -翻译 2017-08-11 16:13:23 · 570 阅读 · 0 评论 -
coursera《机器学习》吴恩达-week1-03 梯度下降算法
梯度下降算法最小化代价函数J梯度下降 使用全机学习最小化首先查看一般的J()函数问题 我们有J(θ0, θ1)我们想获得 min J(θ0, θ1)梯度下降适用于更一般的功能 J(θ0, θ1, θ2 …. θn)min J(θ0, θ1, θ2 …. θn)这一算法如何工作?:从初始假定开始 从0,0开始(或任何其他值)保持一点点的改变θ0和θ1,来试图减少J(θ0,翻译 2017-08-11 19:48:27 · 2538 阅读 · 0 评论 -
coursera《机器学习》吴恩达-week2-01 多个变量的线性回归
具有多个特征的线性回归多个变量=多个特征在原版本我们有 X =房屋大小,用它来预测y =房价如果在一个新的计划中,我们有更多的变量(如卧室数量,楼层数,家庭年龄) x 1,x 2,x 3,x 4 是四个特征 x 1 - 尺寸(平方)x 2 - 卧室数量x 3 - 楼层数量x 4 - 家庭年龄(岁)y是输出变量(price)更多符号 n 特征数(n = 4)m翻译 2017-08-17 18:39:28 · 451 阅读 · 0 评论