《神经网络与深度学习》学习笔记——使用神经网络识别手写数字

该系列是笔者在学习《NeuralNetworksDeepLearning》学习过程中记录的笔记,简单粗暴,大量参考了CSDN上的相同学习帖子,主要用于记录
下面的算法代码来自https://github.com/mnielsen/neural-networks-and-deep-learning,非本人所写

-神经网络的代码核心片段

class Network(object):
    def __init__(self, sizes):
        self.num_layers = len(sizes)
        self.sizes = sizes
        self.biases = [np.random.randn(y, 1) for y in sizes[1:]]
        self.weights = [np.random.randn(y, x)
        for x, y in zip(sizes[:-1], sizes[1:])]

这段代码是创建一个Network类表示神经网络,在这段代码中,列表 sizes 包含各层神经元的数量。
biases:感知器的偏置,一个神经元,需要一个偏置
weights:权重,一个箭头一个权重
例如下图[3,4,1]的三层神经网络

在这里插入图片描述
例如,如果我们想创建⼀个在第⼀层有2 个神经元,第⼆层有 3 个神经元,最后层有 1 个神经元的Network 对象,我们应这样写代码:

net = Network([2, 3, 1])

- 函数分析:
- self函数
由于类起到模板的作用,因此,可以在创建实例的时候,把我们认为必须绑定的属性强制填写进去。这里就用到Python当中的一个内置方法__init__方法,这里注意:
(1)、__init__方法的第一参数永远是self,表示创建的类实例本身,因此,在__init__方法内部,就可以把各种属性绑定到self,因为self就指向创建的实例本身。
(2)、有了__init__方法,在创建实例的时候,就不能传入空的参数了,必须传入与__init__方法匹配的参数,但self不需要传,Python解释器会自己把实例变量传进去:这里self就是指类本身。

self.biases = [np.random.randn(y, 1) for y in sizes[1:]]#意 Network 初始化代码假设第⼀层神经元是⼀个输⼊层,并对这些神经元不设置任何偏置,因为偏置仅在后⾯的层中⽤于计算输出
self.weights = [np.random.randn(y
  • 1
    点赞
  • 6
    收藏
    觉得还不错? 一键收藏
  • 0
    评论
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值