Linear Regression with Multiple Variables

                                                        Linear Regression with Multiple Variables

=====================================multiple-features====================================

1、特征:


  注:   Hypothesis    假设

            Patameters    参数

            Costfunction 代价函数


=============================gradient-descent-for-multiple-variables==========================

2、梯度下降算法


3、单变量和多变量梯度下降算法的不同



===================================-feature-scaling=======================================

4、特征缩放


   注:如果x1的范围是0-2000,x2的范围是1-5,那么costfunction如左图所示,其导致的结果就是梯度下降算法需      要运行很多次数才可以找到局部最优解。

          如果x1的范围是0-1,x2的范围是0-1,那么costfunction的范围如右图所示,costfunction只需要很少的运      行次数就可以找到局部最优解


注:最好使每个特征的值在[0,1]的范围内,不要太大,也不要太小,当然在[-3,3],[-1/3,1/3]的范围是可以接受的。

       如果特征值的范围相似也是没有问题的。


注:(x-u)/s来统一规划特征值的范围,u是特征值的平均数,s是特征值的(max-min)

======================================learning-rate=======================================

5、梯度下降算法的正确运行


注:学习率α要取比较小的值,但是不要太小


注:如果每次减少的步长少于10的-3次方,则发出警告


6、正规方程


注:另一种求theta的方法,一种是梯度下降


注:遇到不可逆情况的原因,1、多余的特征,2、特征太多

评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值