三层神经网络的实现(鱼书P63实现)

import numpy as np   #首先引入numpy,否则后面无法定义np.array

#定义激活函数sigmoid
def sigmoid(x):
    z = np.exp(-x)
    sig = 1 / (1 + z)

    return sig


#定义恒等函数
def identity_function(x):
    return x


#下面这行代码定义了一个名为init_network的函数,该函数用于初始化神经网络的权重和偏置项。
def init_network():
    network={}     #这行代码创建了一个空的字典,用于存储神经网络的权重和偏置项。
    network['W1'] = np.array([[0.1,0.3,0.5],[0.2,0.4,0.6]])
    network['b1'] = np.array([0.1,0.2,0.3])
    network['W2'] = np.array([[0.1,0.4],[0.2,0.5],[0.3,0.6]])
    network['b2'] = np.array([0.1,0.2])
    network['W3'] = np.array([[0.1,0.3],[0.2,0.4]])
    network['b3'] = np.array([0.1,0.2])
    return network
def forward(network, x):
    W1,W2,W3 = network['W1'], network['W2'], network['W3']
    b1,b2,b3 = network['b1'], network['b2'], network['b3']

    a1 = np.dot(x,W1) + b1
    z1 = sigmoid(a1)
    a2 = np.dot(z1,W2) + b2
    z2 = sigmoid(a2)
    a3 = np.dot(z2,W3) + b3
    y = identity_function(a3)
    return y
network = init_network()   #定义network,调用init_network为此network
x = np.array([1.0,0.5])
y = forward(network,x)
print(y)#[0.31682708 0.69627909]

期间遇到的问题:1. 未定义激活函数和恒等函数

                             2. 未理解 network{}和 network=init_network 

  • 0
    点赞
  • 0
    收藏
    觉得还不错? 一键收藏
  • 0
    评论
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值