唐宇迪深度学习课程上篇——动手完成简单的神经网络

 

 

#coding:utf-8
'''
Created on 2017年7月21日

@author: KLKJ
'''
import numpy as np
def sigmoid(x,deriv=False): #定义激活函数,deriv=False时进行前向传播的运算,deriv=True进行反向传播的运算
    if deriv == True:
        return x*(1-x)#这里x=1/(1+exp(-x)),是sigmoid函数求导后的结果
    return 1/(1+np.exp(-x))

x = np.array([[0,0,1],
              [0,1,1],
              [1,0,1],
              [1,1,1],
              [0,0,1]]
             ) #输入5个样本,每个样本三个特征值
y = np.array([[0],
              [1],
              [1],
              [0],
              [0]]) #期望输出得分
np.random.seed(1)#随机种子

w0 = 2 * np.random.random((3,4))-1 #w0的维数与样本特征与神经元的个数有关,random初始化的值在(0,1)的半开区间内,乘2减1后控制w0的值在(-1.+1)区间上
w1 = 2 * np.random.random((4,1))-1
print w0#查看w0的值

for j in xrange(60000): #迭代六万次
    l0 = x  #将x的值给l0,l0为输入层
    l1 = sigmoid(np.dot(l0,w0)) #中间层经过第一层后的得分
    l2 = sigmoid(np.dot(l1,w1)) #输出层的得分
    l2_error = y - l2 #输出层的得分与期望形式得分的差异
    if(j%10000) == 0:
        print 'Error'+str(np.mean(np.abs(l2_error)))#每经过一万次迭代输出一次差异值的平均值,以便观察差异值是否减小
    l2_delta = l2_error * sigmoid(l2,deriv=True)#w1对错误的贡献
    l1_error = l2_delta.dot(w1.T)#反向传播根据12_delta得出
    l1_delta = l1_error * sigmoid(l1,deriv=True)#w0对错误的贡献
   
    w1 += l1.T.dot(l2_delta) #根据反馈过来的结果对w1进行调节
    w0 += l0.T.dot(l1_delta) #根据反馈过来的结果对w0进行调节

 

 

转载于:https://www.cnblogs.com/lindaxin/p/7216836.html

评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值