吴恩达机器学习笔记DAY-7(自用版)

目录

WEEK 2-1.1多维特征

一、多维特征Multiple features(variables)

二、多维线性回归模型multiple linear regression

WEEK 2-1.2向量化

一、简便化:

①非矢量化简便:(不推荐)

②矢量化简便(代码运行速度快)

③执行过程对比:

WEEK-2-1.4用于多元回归的梯度下降方法

一、梯度下降

①左边是单维度,右边是多维度

②w,b的更新规则

二、正规方程:

①特点:

②缺点:

③面试了解:


WEEK 2-1.1多维特征

一、多维特征Multiple features(variables)

①回顾:之前更多的是一个特征x(例如房屋的大小->预测房屋的价格)

              f(x)=wx+b

②引入更多因素:X_{1}X_{2}X_{3}X_{4}........卧室数量,层数,房屋年龄等

③符号规则:

   X_{j}:第j个特征

   n:特征的总数

  X^{i}: 第i个训练示例(实际上是有各种因素的列表,比如下图中第二行方框)

 X_{j}^{i}:第i个训练样例中的第j个特征(列表中的一个值)

二、多维线性回归模型multiple linear regression

以前单维度:f(x)=wx+b

多元线性回归:f(x)=w_{1}x_{1}+w_{2}x_{2}+......+w_{n}x_{n}+b

           参数:①向量w=[w1,w2,w3,...... wn]

                      ②数字b

多维度公式可以简写为:f_{\vec{w},b}=w\bar{}\cdot x\vec{}+b(点积运算)

WEEK 2-1.2向量化

一、简便化:

①非矢量化简便:(不推荐)

f_{w\vec{},b}=\sum_{j=1}^{n}w_{j}x_{j}+b

f=0
for j in range(0,n):
    f=f+w[j]*x[j]
f=f+b
    

②矢量化简便(代码运行速度快)

f_{\vec{w},b}=w\bar{}\cdot x\vec{}+b

f=np.dot(w,x)+b

③执行过程对比:

矢量化直接取出数字相乘相加

WEEK-2-1.4用于多元回归的梯度下降方法

一、梯度下降

①左边是单维度,右边是多维度

②w,b的更新规则

二、正规方程:

①特点:

只适用于线性回归;解决w,b不用迭代

②缺点:

不适用于其他模型;速度慢(feature>10000)

③面试了解:

某些机器学习库可能在后端使用这种复杂方法求解w&b,但对于大多学习算法,梯度下降提供了更好的方法完成工作。

  • 10
    点赞
  • 8
    收藏
    觉得还不错? 一键收藏
  • 0
    评论
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值