em算法详细例子及推导_【机器学习】算法原理详细推导与实现(一):线性回归

f8e4de627265a38de379bc3e230f668b.png

【机器学习】算法原理详细推导与实现(一):线性回归

今天我们这里要讲第一个有监督学习算法,他可以用于一个回归任务,这个算法叫做 线性回归

房价预测

假设存在如下 m 组房价数据:

17cf86da0ae157eaeff3913c9de2aac6.png

通过上面的数据,可以做出如下一个图。横坐标是 面积(m^2),纵坐标是 价格(万元)

67378dc541a612ba1bc4225fadf99fdf.png

那么问题来了,给你这样一组数据,或者给你这样一个训练数据的集合,能否预测房屋的面积大小和房价之间的关系?

构建函数

存在如下符号假设:

m 为训练数据 x 为输入特征,即房子的大小 y 为输出结果,即房子的价格 (x, y) 为一个样本,即表格中一行代表一个训练样本
为第
i 个训练样本

在监督学习中,我们一般会这样做:

  1. 首先找到一个训练集合
  2. 提供样本 m 给算法构建学习函数
  3. 算法会生成一个学习函数,用
    表示
  4. 给学习函数提供足够的样本
    ,由此输出结果

学习函数

f8e51f759a5067c43e6e8079dd0912d7.png

训练函数

8875e07a7c6199a71daa5bd76b8bae9e.png

为了设计学习算法(学习函数),假设存在如下函数:

其中

是一个输入函数,这里代表输入的面积(m^2),
是一个输出函数,这里代表 输出的价格(万元),
是函数的参数,是需要根据样本学习的参数。对于如上的学习函数只是一个简单的二元一次方程,只需要两组样本
就能将
学习出来,这是一个很简单的函数,但是这样在实际情况中并非很合理。

但是影响房子价格的因素不仅仅是房子的大小。除了房子的大小之外,假设这里还知道每个房子的房间数量:

e7c0eb68f43166e12fa7768a3397c219.png

那么我们的训练集合将有第二个特征,

表示房子的面积(m^2),
表示房子的房间(个),这是学习函数就变成了:

被称为参数,决定函数中每个特征
的影响力(权重)。
为参数为
输入变量为
的学习函数。如果令
,那么上述方程可以用求和方式写出,也可以转化为向量方式表示:

假设存在

个特征
,那么上述公式求和可以改成:

训练参数

在拥有足够多的训练数据,例如上面的房价数据,怎么选择(学习)出参数

出来?一个合理的方式是使学习函数
学习出来的预测值无限接近实际房价值
。假设
单个样本误差表示为:

我们把

叫做单个样本的误差。至于为什么前面要乘
,是为了后面计算方便。

为了表示两者之间的接近程度,我们可以用训练数据中所有样本的误差的和,所以定义了 损失函数 为:

而最终的目的是为了使误差和

最小,这里会使用一个搜索算法来选取
使其误差和无限逼近
最小,其流程是:
1. 初始化一组向量

2. 不断改变
的值使其
不断减小

3. 直到取得
最小值,活得得到最优的参数向量

该搜索算法为 梯度下降,算法的思想是这样的,下图看到显示了一个图形和坐标轴,图像的高度表示误差和

,而下面的两条坐标表示不同的参数
,这里为了方便看图只是显示了
,即变化参数了
使其误差和
在最低点,即最小值。

首先随机选取一个点

,它可能是
,也可能是随机的其他向量。最开始的
+ 字符号表示开始,搜索使其
下降速度最快的方向,然后迈出一步。到了新的位置后,再次搜索下降速度最快的方向,然后一步一步搜索下降,梯度下降算法是这样工作的:

5a9db71439bfa3d1bb558fab6f7ef926.gif

梯度下降的核心就在于每次更新

的值,公式为:

上面公式代表:

每次都按照一定的
学习速率
搜索使误差和
下降最快的方向更新自身的值。而
的偏导值,求偏导得到极值即是下降最快的方向。假设在房价的例子中,只存在一组训练数据
,那么可以推导如下公式:

结合

可以得到:

对于存在

个训练样本,
转化为:

学习速率

是梯度下降的速率,
越大函数收敛得越快,
可能会远离最小值,精度越差;
越小函数收敛得越慢,
可能会靠近最小值,精度越高。下面就是下降寻找最小值的过程,在右图
越来越小的时候,左边的线性回归越来准:

4c8f931ab3dce8823f2a1ea3ae6e6b9a.gif

代码

选取得到的 150条二手房 数据进行预测和训练,拟合情况如下:

08c82a5a62f15bc7a56bfbf49a1c3ae3.png

计算损失函数:

# 损失函数
def computeCost(X, y, theta):
    inner = np.power(((X * theta.T) - y), 2)
    return np.sum(inner) / (2 * len(X))

梯度下降函数为:

# 梯度下降函数
def gradientDescent(X, y, theta, alpha, iters):
    temp = np.matrix(np.zeros(theta.shape))
    parameters = int(theta.ravel().shape[1])
    cost = np.zeros(iters)

    for i in range(iters):
        error = (X * theta.T) - y

        for j in range(parameters):
            term = np.multiply(error, X[:, j])
            temp[0, j] = theta[0, j] - ((alpha / len(X)) * np.sum(term))

        theta = temp
        cost[i] = computeCost(X, y, theta)

    return theta, cost

训练迭代1000次后得到参数

# 训练函数
def train_function():
    X, y, theta = get_training_dataset()
    # 有多少个x就生成多少个theta
    theta = np.matrix(np.zeros(X.shape[-1]))
    # 查看初始误差
    # first_cost=computeCost(X, y, theta)
    # print(first_cost)
    # 设置参数和步长
    alpha = 0.01
    iters = 1000

    # 训练得到theta和每一次训练的误差
    g, cost = gradientDescent(X, y, theta, alpha, iters)
    computeCost(X, y, g)
    return g, cost

数据和代码下载请关注公众号【 机器学习和大数据挖掘 】,后台回复【 机器学习 】即可获取

  • 0
    点赞
  • 2
    收藏
    觉得还不错? 一键收藏
  • 0
    评论

“相关推荐”对你有帮助么?

  • 非常没帮助
  • 没帮助
  • 一般
  • 有帮助
  • 非常有帮助
提交
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值