batch gradient descent(批量梯度下降) 和 stochastic gradient descent(随机梯度下降)

26 篇文章 0 订阅
14 篇文章 0 订阅

批量梯度下降是一种对参数的update进行累积,然后批量更新的一种方式。用于在已知整个训练集时的一种训练方式,但对于大规模数据并不合适。

随机梯度下降是一种对参数随着样本训练,一个一个的及时update的方式。常用于大规模训练集,当往往容易收敛到局部最优解。

详细参见:Andrew Ng 的Machine Learning的课件(见参考1)

可能存在的改进

1)样本可靠度,特征完备性的验证

      例如可能存在一些outlier,这种outlier可能是测量误差,也有可能是未考虑样本特征,例如有一件衣服色彩评分1分,料子1分,确可以卖到10000万元,原来是上面有一个姚明的签名,这个特征没有考虑,所以出现了训练的误差,识别样本中outlier产生的原因。

2)批量梯度下降方法的改进

      并行执行批量梯度下降

3)随机梯度下降方法的改进

      找到一个合适的训练路径(学习顺序),去最大可能的找到全局最优解


4)假设合理性的检验

     H(X)是否合理的检验


5)维度放大

    维度放大和过拟合问题,维度过大对训练集拟合会改善,对测试集的适用性会变差,如果找到合理的方法?

 


下面是我做的一个实验

假定有这样一个对衣服估价的训练样本,代码中matrix表示,第一列表示色彩的评分,第二列表示对料子质地的评分,例如第一个样本1,4表示这件衣服色彩打1分,料子打4分。我们需要训练的是theta,其表示在衣服的估价中,色彩和料子的权重,这个权重是未知量,是需要训练的,训练的依据是这四个样本的真实价格已知,分别为19元,...20元。

通过批量梯度下降和随机梯度下降的方法均可得到theta_C={3,4}T



批量梯度下降法:

  1. #include "stdio.h"  
  2.   
  3. int main(void 
  4.  
  5.         float matrix[4][2]={{1,4},{2,5},{5,1},{4,2}};  
  6.         float result[4]={19,26,19,20};  
  7.         float theta[2]={2,5};                   //initialized theta {2,5}, we use the algorithm to get {3,4} to fit the model  
  8.         float learning_rate 0.01;  
  9.         float loss 1000.0;                    //set loss big enough  
  10.   
  11.         for(int 0;i<100&&loss>0.0001;++i)  
  12.          
  13.                 float error_sum 0.0;  
  14.                 for(int 0;j<4;++j)  
  15.                  
  16.                         float 0.0;  
  17.                         for(int k=0;k<2;++k)  
  18.                          
  19.                                 += matrix[j][k]*theta[k];  
  20.                          
  21.                         error_sum result[j]-h;  
  22.                         for(int k=0;k<2;++k)  
  23.                          
  24.                                 theta[k] += learning_rate*(error_sum)*matrix[j][k];  
  25.                          
  26.                  
  27.                 printf("*************************************\n");  
  28.                 printf("theta now: %f,%f\n",theta[0],theta[1]);  
  29.                 loss 0.0;  
  30.                 for(int 0;j<4;++j)  
  31.                  
  32.                         float sum=0.0;  
  33.                         for(int 0;k<2;++k)  
  34.                          
  35.   
  36.   
  37.                                 sum += matrix[j][k]*theta[k];  
  38.                          
  39.                         loss += (sum-result[j])*(sum-result[j]);  
  40.                  
  41.                 printf("loss  now: %f\n",loss);  
  42.          
  43.         return 0;  
  44.  

随机梯度下降法
  1. int main(void 
  2.  
  3.         float matrix[4][2]={{1,4},{2,5},{5,1},{4,2}};  
  4.         float result[4]={19,26,19,20};  
  5.         float theta[2]={2,5};  
  6.         float loss 10.0;  
  7.         for(int =0 ;i<100&&loss>0.001;++i)  
  8.          
  9.                 float error_sum=0.0;  
  10.                 int j=i%4;  
  11.                  
  12.                         float 0.0;  
  13.                         for(int k=0;k<2;++k)  
  14.                          
  15.                                 += matrix[j][k]*theta[k];  
  16.   
  17.                          
  18.                         error_sum result[j]-h;  
  19.                         for(int k=0;k<2;++k)  
  20.                          
  21.                                 theta[k] theta[k]+0.01*(error_sum)*matrix[j][k];  
  22.                          
  23.                  
  24.                 printf("%f,%f\n",theta[0],theta[1]);  
  25.                 float loss 0.0;  
  26.                 for(int 0;j<4;++j)  
  27.                  
  28.                         float sum=0.0;  
  29.                         for(int 0;k<2;++k)  
  30.                          
  31.   
  32.                                 sum += matrix[j][k]*theta[k];  
  33.                          
  34.                         loss += (sum-result[j])*(sum-result[j]);  
  35.                  
  36.                 printf("%f\n",loss);  
  37.          
  38.         return 0;  
  39.  

转自:http://blog.csdn.net/pennyliang/article/details/6998517


参考:

【1】http://www.stanford.edu/class/cs229/notes/cs229-notes1.pdf 

【2】http://www.cnblogs.com/rocketfan/archive/2011/02/27/1966325.html

【3】http://www.dsplog.com/2011/10/29/batch-gradient-descent/

我要啦免费统计

【4】http://ygc.name/2011/03/22/machine-learning-ex2-linear-regression/

  • 0
    点赞
  • 1
    收藏
    觉得还不错? 一键收藏
  • 0
    评论

“相关推荐”对你有帮助么?

  • 非常没帮助
  • 没帮助
  • 一般
  • 有帮助
  • 非常有帮助
提交
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值