该系列是笔者在学习《NeuralNetworksDeepLearning》学习过程中记录的笔记,简单粗暴,大量参考了CSDN上的相同学习帖子,主要用于记录
下面的算法代码来自https://github.com/mnielsen/neural-networks-and-deep-learning,非本人所写
-神经网络的代码核心片段
class Network(object):
def __init__(self, sizes):
self.num_layers = len(sizes)
self.sizes = sizes
self.biases = [np.random.randn(y, 1) for y in sizes[1:]]
self.weights = [np.random.randn(y, x)
for x, y in zip(sizes[:-1], sizes[1:])]
这段代码是创建一个Network类表示神经网络,在这段代码中,列表 sizes 包含各层神经元的数量。
biases:感知器的偏置,一个神经元,需要一个偏置
weights:权重,一个箭头一个权重
例如下图[3,4,1]的三层神经网络
例如,如果我们想创建⼀个在第⼀层有2 个神经元,第⼆层有 3 个神经元,最后层有 1 个神经元的Network 对象,我们应这样写代码:
net = Network([2, 3, 1])
- 函数分析:
- self函数
由于类起到模板的作用,因此,可以在创建实例的时候,把我们认为必须绑定的属性强制填写进去。这里就用到Python当中的一个内置方法__init__方法,这里注意:
(1)、__init__方法的第一参数永远是self,表示创建的类实例本身,因此,在__init__方法内部,就可以把各种属性绑定到self,因为self就指向创建的实例本身。
(2)、有了__init__方法,在创建实例的时候,就不能传入空的参数了,必须传入与__init__方法匹配的参数,但self不需要传,Python解释器会自己把实例变量传进去:这里self就是指类本身。
self.biases = [np.random.randn(y, 1) for y in sizes[1:]]#意 Network 初始化代码假设第⼀层神经元是⼀个输⼊层,并对这些神经元不设置任何偏置,因为偏置仅在后⾯的层中⽤于计算输出
self.weights = [np.random.randn(y