线性回归最通俗易懂理解-python tensorflow版-1

1,线性回归说明

线性回归用最直白最简单说法就是通过大量的学习然后给定既定的数据做预测使用,整个的计算过程大致可以理解为,在某个预测中有大量的不同维度数据,我们将这类数据进行线性回归学习,学习完很多数据以后,就可以对未知的数据相同维度数据预测既定的值举个机器学习常用栗子就是预测某个地区的房价,数据为:房子的位置,南北朝向,面积,成交价格,成交年份,建成时间等进行学习,最终你提供:房子的位置,南北朝向,面积,成交年份,他给你预测成交价格.

上面都是废话说太多了,又不舍得删,毕竟是我一个字一个字码出来的:线性回归解决的问题就是预测,至于怎么预测的你可以看看上面的.

2,涉及的常用术语:

1,函数模型(线性方程)

函数模型通俗的讲就是通过什么的函数实现线性回归,而线性回归的这个函数就是我们数学中最早接触的函数:y=wx+b,其中我们把w叫权值,b叫偏置项.

函数图像为:

按照这个函数来说如果你知道w(权值),b(偏置项)给你任意一个x,你就可以求出来y的值,这就是我们常说的一元回归问题.线性回归要学习的是什么呢,就是你只给我x和y,机器学习给你求出来权值w和偏置项b,对于一元回归问题就是这么简单.对于多元回归来说就麻烦一点点就是你可能有几个或者几十个或者更多的权值w和偏置项b.但是原理都是一样的就是让电脑给你求出来很多个w(权值)和很多个b(偏置项)

2,损失函数

对于机器学习来说,我怎么样才能保证我预测的值与真实值最为接近呢,这就是损失函数的作用.损失函数我们一般用平方差公式就是.平方差公式解决的问题简单的讲就是两点之间最小距离.公式就长成下面这个鬼样子,你们上初中应该学过(我也上过初中),其中如果y实际值则\bar Y就是预测值,反之亦然.总之不管怎么样,线性回归的目的就是缩小他们俩的差距

 

3,优化函数

目前比较流行的优化函数叫梯度下降函数,当然还有别的(萝卜白菜各有所爱),这个优化函数的作用就是不断缩小预测值与真实值的过程.怎么理解呢,粗人说话就是:我学习的时候,我认为我的权值w是加一个数还是减去,通过y=wx+b得到的预测y值与真实值距离最小.那个傻X的微分公式或者斜率的计算公式我就不说,越说越不懂还不如不说.给张图你们就明白怎么回事了.

根据各种斜率和方向这个梯度下降函数,最终经过不断的尝试以后得到一个数就是这个弧形的底部的值使得y=wx+b这个方程预测的y值最接近真实值.

tensorflow代码下回贴出来

代码:

https://blog.csdn.net/tiyager/article/details/102656001

 

  • 0
    点赞
  • 0
    收藏
    觉得还不错? 一键收藏
  • 0
    评论
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值