Machine Learning第二讲[多变量线性回归] --(三)向量化

内容来自Andrew老师课程Machine Learning的第二章内容的Vectorization部分。

一、Vectorization(向量化)

后半部分内容摘自:原文链接

1、向量化示例,以h(x)为例,说明特征变量向量化:
这里写图片描述
这里写图片描述

2、将代价函数这里写图片描述向量化。
含有多个特征变量的假设函数为:这里写图片描述
含有多个特征变量的代价函数为:

先看h(x)和theta:

这里写图片描述             这里写图片描述

将其代入h(x),则h(x)的向量表达式为:
这里写图片描述


这里写图片描述

将y和h(x)向量代入代价函数J,则
这里写图片描述

3、梯度下降算法:
这里写图片描述
将上述公式向量化:这里写图片描述,其中:

这里写图片描述                    这里写图片描述

将上述h(x)表达式和y表达式代入delta表达式,则
这里写图片描述


这里写图片描述

多个特征向量化,可以加快运算速度,尤其是对于特征量大的数据集效果更加明显。

  • 2
    点赞
  • 3
    收藏
    觉得还不错? 一键收藏
  • 0
    评论

“相关推荐”对你有帮助么?

  • 非常没帮助
  • 没帮助
  • 一般
  • 有帮助
  • 非常有帮助
提交
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值