学习人工智能第一周:线性回归(下)

上期回顾
应用场景--->向量化--->模型-->结果
人工智能主要围绕模型展开,模型可以理解为公式
模型之一:线性回归
模型是直线,让直线拟合这些点,所以叫线性回归

需求:给出一组数据x,y,给出点的分布情况(给出一个公式),类似于y=ax+b
    也就是说,通过调整a,b的值,让直线拟合这些点
    (调整w,b的值就是机器在学习的过程,要知道,不管怎么调整,都是由误差的,机器学习的目的
    就是找到合适w,b让误差最小)
    
    优化之后,我们得到w=2,b=1的值,得到此模型(公式)
    y_prodict=2x+1  mse=(y_prodict-y)*2   误差最小,就是求mse最小

代码展示:
    x,y=通过查表读取出来de 百分之80
    model=line(建立线性回归的模型)
    model.fit(x,y) 训练模型
    model.w
    model.b
    模型做出来之后,使用训练数据和测试数据分别得出预测值和真实值去比较,求出平方值的最小值
    
    mse只有相对意义
    推广能力:能在测试集上表现很好的能力
mse的最小值
mse=(y_prodict-y)^2现在的目的就是不断地调整w,b让mse最小即可
也就是说求mse的最小值
解决方案:先求导数,判断单调型,一旦单调性发生改变,图像就会转弯
    mse/w=2(wx+b-y)*x
    先随机给w0,w1=w0-&*mse/w,w2=w1-mse/w1 一直找最小值,这叫梯度下降法  因为要震动的浮动,所以增加一个参数&,控制震动的小
问题
问题一:测试机的误差和训练集的误差谁大谁小
    测试机的mse有可能比训练集大,也有可能比训练集小
    但是,因为很难取到训练集的数据,所以,在工程上,测试集的数据要比训练集mse大
    解决办法:增大训练集;增大训练集的多样性
    
    模型是针对训练集的,很难渠道压在训练集上的数据
问题二:为什么使用方差
    方差:把容易测得测完之后,mse下降一定值,就会注意到一些
    难测得一些数据
    绝对值:只训练简单的,不做难题
问题三:训练集的mse是不是越小越好
    不能越小越好,过度拟合的话,就学过头了
    怎么判断学过头?
    将训练集的数据分成训练和有效的,1h的时候看一下mse,2h的时候
    看一下mse,当发现mse变大的时候,说明学过头l
总结一点:线性回归就是通过不断的去调整w,使得mse最小
多元线性
y=wx=b
y=w1x+w2x+w3x...
简称:x=(1,x1,x2,x3)  w=(w0,w1,w2,w3)  y=w^t*x

使用线性回归的条件是数据尽可能在一条直线上
若是抛物线:y=w1x^2+w2x+w0
更复杂一点:y=w1x+w2x^2+w3x^3...
  • 0
    点赞
  • 0
    收藏
    觉得还不错? 一键收藏
  • 打赏
    打赏
  • 0
    评论

“相关推荐”对你有帮助么?

  • 非常没帮助
  • 没帮助
  • 一般
  • 有帮助
  • 非常有帮助
提交
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包

打赏作者

人工智能小李子

你的鼓励将是我创作的最大动力

¥1 ¥2 ¥4 ¥6 ¥10 ¥20
扫码支付:¥1
获取中
扫码支付

您的余额不足,请更换扫码支付或充值

打赏作者

实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值