吴恩达机器学习笔记
wxb_2021.8.1
本人所有作品均为学习所做笔记 不作任何用途
展开
-
吴恩达机器学习笔记4——多变量线性回归
4.1多维特征Multiple Featuresm:样本个数n:特征的数量支持多变量的假设h表示为:为了化简,变为:特征矩阵X 的维度是m∗(n+1),化简为:4.2多变量梯度下降与单变量线性回归类似,在多变量线性回归中,构建一个代价函数,则这个代价函数是所有建模误差的平方和,即:4.3 梯度下降法实践1-特征缩放面对多维度特征问题,我们需要保证这些特征具有相近的尺度,帮助梯度下降算法更快地收敛。以房价问题为例,假设仅用两个特征,房屋的尺寸和数量,以两个参数分别为横纵坐标,假原创 2021-08-26 16:59:53 · 180 阅读 · 1 评论 -
吴恩达机器学习2——单变量线性回归
吴恩达机器学习2——单变量线性回归监督学习工作模式训练集中同时给出了输入输出,即人为标注的“正确结果”喂给学习算法,得到一个函数h,h可以根据输入的x得到一个y,因此h是x到y的一个映射。一种可能的表达方式为:hθ(x)=θ0+θ1x因为只含有一个特征/输入变量,因此这样的问题叫作单变量线性回归问题。x:特征/输入变量上式中, θ为参数, θ 的变化才决定了输出结果,不同以往,这里的 x 被我们视作已知(不论是数据集还是预测时的输入),所以怎样解得 θ以更好地拟合数据,成了求解该问题的原创 2021-08-01 17:52:08 · 1003 阅读 · 1 评论 -
吴恩达机器学习笔记1
吴恩达机器学习笔记1#监督学习监督学习一般有两种1、回归问题(Regression)回归问题即为预测一系列的连续值 预测波士顿房价(连续值) ![在监督学习中,我们给学习算法一个数据集,比如一系列房子的数据,给定数据集中每个样本的正确价格,即它们实际的售价然后运用学习算法,算出更多的答案,我们需要估算一个连续值的结果,这属于回归问题](https://img-blog.csdnimg.cn/d931783ef26d4173b95d11a0c346a569.webp?x-oss-process原创 2021-08-01 16:27:54 · 785 阅读 · 1 评论 -
吴恩达机器学习笔记3——线性代数
3.1矩阵和向量3.2加法和标量乘法3.3矩阵向量乘法3.6逆,转置原创 2021-08-26 15:29:12 · 140 阅读 · 1 评论