Andrew Ng machine learning week2 week3作业 不用for循环 向量操作计算

例如: 计算h(x)的时候      我一开始的算法  用了几个for循环   后面发现  theta*X 可以直接得到一系列参数  

累加求和的时候     求和一般转化为一个行向量乘一个列向量    向量化的关键:首先写出每一个表达式  然后再不断消除需要用到循环的字母  


对于计算grad的时候  需要计算到上面这个偏导数 

那么  首先h(x) 可以写成 sigmoid(theta*X)   这是一个列向量       y(i)  可以写成y   这也是一个列向量 

sigmoid(theta*X)-y   是括号里的结果  也是一个 m*1的列向量     然后应该是 grad(i)= 1/m* [ xi(1),......,xi(m)]*( sigmoid(theta*X)-y )   这个就是上面图中的第二行那个偏导数的计算方法

然后 grad=1/m*X*(sigmoid(theta*X)-y)    可以直接计算出grad列向量  为 所求结果    




评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值