笔记
Loss值表示预估值与实际的差距的大小的幅度如: 每个预测值与每个实际值的差求平方(避免出现负数)再求平均。而之后则先办法让Loss值不断变小。
def loss_2(yhat,y): return py.mean((py.array(yhat)-py.array(y))**2)
对Loss有影响的为k,b 而之后便要找到更合适的k和b
在Loss中对k求导 得def k_loss(yhat, y, x):
return -2py.mean((py.array(yhat)-py.array(y))py.array(x))
在Loss中对b求导得
def b_loss(yhat,y):return -2py.mean(py.array(yhat)-py.array(y))
通过公式 Xm=Xm-学习率(Lossd对X求导的值)
选定一个合适的学习率 让k和b向合适的值逼近用绝对值
如果Loss不是用平方而是用绝对值来表示,也是同上来进行处理。
因为y=k*x+b表示的只是一条直线 而显然不能最形象的表现出数据的变化,因此引入激活函数如:
def sigmoid(x):return 1 / (1 + np.exp(-x))。
通过激活函数的套用使得最后得出的线变得弯曲。通过反向传播与求导来使得曲线向最佳曲线进行逼近。
代码 用 numpy 实现一个基于(随机)梯度下降的线性回归:
```bash
import numpy as np
import numpy.random as rd