跟刘建平博客学机器学习

2016年10月

1. 梯度下降(Gradient Descent)小结

对多元函数的参数求∂偏导数,把求得的各个参数的偏导数以向量的形式写出来,就是梯度。沿着梯度向量的方向就是f(x,y)增加最快的地方,容易找到函数的最大值。反过来说,沿着梯度向量相反的方向,梯度减少最快,也就是更加容易找到函数的最小值。

2. 最小二乘法小结

最小二乘法的形式为:$目标函数=\sum(难测值-理论值)^2$

3.线性回归总结

梯度下降法算线性回归:$\theta=\theta-\alpha\mathtt{X}^T(\mathtt{X}\theta-\mathtt{Y})$

最小二乘法算线性回归:$\theta=(\mathtt{X^TX})^{-1}\mathtt{X^TY}$

p.其他浏览

2016年11月

转载于:https://www.cnblogs.com/guesswhy/p/11283543.html

评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值