鱼书深度学习入门:gradient_simplenet

#以一个简单的神经网络为例,来实现求损失函数关于权重参数的梯度
#刚开始看 记录一下笔记
import sys, os
sys.path.append(os.pardir)  
import numpy as np
from common.functions import softmax, cross_entropy_error # softmax 交叉熵函数
from common.gradient import numerical_gradient # 求梯度函数


class simpleNet:
    def __init__(self): # 用高斯分布进行初始化 2X3 输入层2个 输出层3个神经元
        self.W = np.random.randn(2,3)

    def predict(self, x): 
        return np.dot(x, self.W) # NN计算

    def loss(self, x, t): # 求损失函数
        z = self.predict(x)
        y = softmax(z)
        loss = cross_entropy_error(y, t)
        #print (x,t,fz)
        return loss

x = np.array([0.6, 0.9])
t = np.array([0, 0, 1])
#fz=3

net = simpleNet()

#lambda创建匿名函数
#lambda函数拥有自己的命名空间,且不能访问自有参数列表之外或全局命名空间里的参数
#这里定义的参数w是一个伪参数。因为numerical_gradient(f,x)会在内部执行f(x),为了与之兼容而定义了f(W) 。(因为numerical_gradient中调的是f(x),所以只能有一个参数)
f = lambda w: net.loss(x, t) 
#传参时并没有直接执行它,此时检测f的类型就是function,是一个函数而不是一个值,loss()函数作为一个(可求偏导的)变量来计算梯度


#这里的梯度就是损失函数f对权重net.W的偏微分
dW = numerical_gradient(f, net.W)
print(dW)

#f(0)也可以正常运行获取到x,t,另设fz变量也可以被获取到
#所以与其他无关 simpleNet它本身可以获取到x与t
#类本身获取全局变量√,所以传参时可以不传

  • 1
    点赞
  • 1
    收藏
    觉得还不错? 一键收藏
  • 0
    评论
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值