AI学习记录 - 模型训练中怎么反向传播以及学习率的影响

画图不易,有用点赞

解释反向传播中具体的运行

假设我们有个简易的神经元连接,如下

在这里插入图片描述

解释一下下图的意思,训练集是《输入2,输出90》,但是实际输出的60,那么权重偏小,我们需要增大权重,这里只举例增大w=5的权重,实际上是每个权重都要增大。所以现在目的是求解 绿色w = 5 权重对结果 60的影响程度,虽然我们现在可以肉眼看到w=5是偏小的,但是我们必须依据一种计算方式求解w=5对于结果的影响,这就是求导数。因为我们首先必须知道 ,绿色w = 5 对结果的影响程度和影响方向,才好将 绿色w = 5 是增大还是缩小,增大多少或者减少多少。
我们知道神经元其实y = w * x + b,多层之后,如图所示

在这里插入图片描述

根据模型直接得出的结果是 60,但是假设真实值是 90,那么60太小了,我们需要增大 绿色w=5 的权重,让 60慢慢接近90,怎么做呢?

我们知道了求影响程度,也是一级一级的求,求的是当前公式对下一级的影响程度也就是导数,最后相乘叠加起来,上图知道 w = 5 对 60 的影响程度是 500,当 绿色w = 5 增加 1 , 60 变成 560, 在实际训练过程中,500太大了,也就是直接求出来的导数太大,我们会先使用学习率进行缩小计算:

500 * 0.01(学习率) = 5
5(原权重) + 5 (变化程度) = 10 (新权重)

这里有个概念比较费解,w对60的影响程度是500,那500*学习率就等于当前权重的变化?这其实有点费解,我的意思是记住就行,原权重的变化=导数*学习率

我们将 10 覆盖绿色框的 5 ,这不就更新权重了吗,更新权重之后,又将 红色框 2 输入,得出 1060, 哇。。。。。。,学习率太大了,可以变成0.0001试试。

在这里插入图片描述

在实际的场景中,计算公式种类铁定不会这么单一,会融合了超级多的复杂的数学公式,这就涉及到复合多元函数求导数了,我们要依据现行的导数公式进行拆分,拆分成n个小公式,分别对n个小公式求导,然后将所有的导数相乘,就可以得出任意一个权重和偏置对结果的影响程度,然后调整它。

分割线——————————

重磅结论:大模型本质是个巨大的复合的多元的数学公式,数学公式是由无数个简单的《单元函数》组成,我将单元函数定义为有独立导数公式的函数,单元函数通过树形结构组成巨大公式,最顶部的节点就是所有单元函数的汇合,通过将某个叶子结点的常量变成变量,从而求出这个常量所在的位置对于结果的影响,也就是所在位置每增加1或者减少1,对顶部节点的影响程度。

什么是《单元函数》?
拥有独立求导公式,不可继续拆分的函数,也就是非复合函数就是《单元函数》。

1.y=c(c为常数) y'=02.y=x^n,y'=nx^(n-1)3.y=a^x,y'=a^xlna;
y=e^x,y'=e^x;
4.y=logax,y'=logae/x;
y=lnx,y'=1/x;
5.y=sinx,y'=cosx;
6.y=cosx,y'=-sinx;
7.y=tanx,y'=1/cos^2x;
8.y=cotx,y'=-1/sin^2x;
9.y=arcsinx,y'=1/1-x^210.y=arccosx,y'=-1/1-x^211.y=arctanx,y'=1/1+x^2

具体怎么求解其中一个变量对结果的影响程度?

再庞大的数学公式,也是由一个个单元公式组成,单元公式由《计算方式》和《单个或多个值》两部分组成,计算方式是固定的,值有个特性就是可以变,把值当成是一个可以变的东西,就是变量例如1+1=y 变成x+1=y,把它变成可变的x,那y就可以对x求导,求导就是求x对y的影响程度。
假设对其中一个单元公式求导,每一个单元公式都有其对应的导数公式,x输入进单元公式,输出y,那么将x输入进单元公式对应的导数公式,就得到了一个导数,也就是得到了当前公式对下一级的影响程度。一般一个公式会有很多的变量但是不需要拆分的情况,我们就直接把当前公式的上一级的输出当成是当前的公式的常量值即可。下面是一小段代码:
        
        sum_h1 = self.w1 * x[0] + self.w2 * x[1] + self.b1
        h1 = sigmoid(sum_h1)

        sum_h2 = self.w3 * x[0] + self.w4 * x[1] + self.b2
        h2 = sigmoid(sum_h2)

        sum_o1 = self.w5 * h1 + self.w6 * h2 + self.b3
        o1 = sigmoid(sum_o1)
        y_pred = o1

        # --- Calculate partial derivatives.
        # --- Naming: d_L_d_w1 represents "partial L / partial w1"
        d_L_d_ypred = -2 * (y_true - y_pred)

         # Neuron o1
        d_ypred_d_w5 = h1 * deriv_sigmoid(sum_o1)
        d_ypred_d_w6 = h2 * deriv_sigmoid(sum_o1)
        d_ypred_d_b3 = deriv_sigmoid(sum_o1)

        d_ypred_d_h1 = self.w5 * deriv_sigmoid(sum_o1)
        d_ypred_d_h2 = self.w6 * deriv_sigmoid(sum_o1)

        # Neuron h1
        d_h1_d_w1 = x[0] * deriv_sigmoid(sum_h1)
        d_h1_d_w2 = x[1] * deriv_sigmoid(sum_h1)
        d_h1_d_b1 = deriv_sigmoid(sum_h1)
        

画图不易,有用点赞

评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值