线性回归笔记,用 numpy 实现一个基于(随机)梯度下降的线性回归代码

笔记

Loss值表示预估值与实际的差距的大小的幅度如: 每个预测值与每个实际值的差求平方(避免出现负数)再求平均。而之后则先办法让Loss值不断变小。
def loss_2(yhat,y): return py.mean((py.array(yhat)-py.array(y))**2)
对Loss有影响的为k,b 而之后便要找到更合适的k和b
在Loss中对k求导 得def k_loss(yhat, y, x):
return -2py.mean((py.array(yhat)-py.array(y))py.array(x))
在Loss中对b求导得
def b_loss(yhat,y):return -2
py.mean(py.array(yhat)-py.array(y))
通过公式 Xm=Xm-学习率
(Lossd对X求导的值)
选定一个合适的学习率 让k和b向合适的值逼近用绝对值
如果Loss不是用平方而是用绝对值来表示,也是同上来进行处理。
因为y=k*x+b表示的只是一条直线 而显然不能最形象的表现出数据的变化,因此引入激活函数如:
def sigmoid(x):return 1 / (1 + np.exp(-x))。
通过激活函数的套用使得最后得出的线变得弯曲。通过反向传播与求导来使得曲线向最佳曲线进行逼近。
代码 用 numpy 实现一个基于(随机)梯度下降的线性回归:


```bash
import numpy as np
import numpy.random as rd
  • 0
    点赞
  • 0
    收藏
    觉得还不错? 一键收藏
  • 0
    评论

“相关推荐”对你有帮助么?

  • 非常没帮助
  • 没帮助
  • 一般
  • 有帮助
  • 非常有帮助
提交
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值