梯度下降法求解多元线性回归的参数

1、题目描述

    利用最小二乘法和梯度下降法求解多元线性回归的参数,其中X、Y是待拟合的数据,X是自变量,Y是因变量。

    

    

2、解题思路

    使用梯度下降法来求解。损失函数为:1/2(y - f(x))^2 ,每进行一次迭代,先求出所有样本点的平均损失,然后损失函数对各个权重求偏导得到关于每个权重的梯度值,接着使用学习率梯度值更新每个权重。这里的权重初始化不能为0,否则梯度不能更新。代码如下:

#include<iostream>
#include<string>
#include<vector>
using namespace std;

void LinearRegression() {
	/*
		需要拟合的模型为:y = a + bx0 + cx1,其中(a,b,c)是要求的参数
	*/
	vector<vector<float>> X({ {1,1},{2,2},{1,3},{1,6} });
	vector<float> Y({3.5,6.5,5.5,4.0});
	float learning_rate = 0.01;                             //学习率
	float a = 0.1, b = 0.1, c = 0.1;                        //权重初始值
	unsigned int iterator = 100000;                         //迭代次数
	for (int i = 0; i < iterator; i++) {
		float gradient_a = 0;
		float gradient_b = 0;
		float gradient_c = 0;   
		for (int j = 0; j < X.size(); j++) {
			float x0 = X[j][0];
			float x1 = X[j][1];
			float y = Y[j];

			//采用的是梯度下降法,需要对所有样本点的梯度求平均值
			//这里的损失函数为1/2(y - f(x))^2,损失函数对各个参数分别求偏导得到梯度值			
			gradient_a = gradient_a - (1.0 / X.size()) * (y - (a + b*x0 + c*x1));     
			gradient_b = gradient_b - (1.0 / X.size()) * (y - (a + b*x0 + c*x1)) * x0;
			gradient_c = gradient_c - (1.0 / X.size()) * (y - (a + b*x0 + c*x1)) * x1;
		}		
                //权重参数的更新
		a = a - learning_rate * gradient_a;
		b = b - learning_rate * gradient_b;
		c = c - learning_rate * gradient_c;
	}
        //保留两位小数
	a = (int)(a * 100) / 100.0;
	b = (int)(b * 100) / 100.0;
	c = (int)(c * 100) / 100.0;
	cout << "a:" << a << endl;
	cout << "b:" << b << endl;
	cout << "c:" << c << endl;
}

    这里只是一个二元一次方程的回归,相当于三维空间中的一条直线,对于其更复杂的回归函数拟合的求解方法是类似的。

  • 2
    点赞
  • 9
    收藏
    觉得还不错? 一键收藏
  • 0
    评论
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值