机器学习之神经网络

原创 2017年05月18日 19:23:22

多层神经网络

前面说到的感知器是一种最基础的神经网络,他只有输入层和输出层,感知器只能处理线性可分问题,而对于非线性问题就需要多层神经网络。一般如下图所示,有多个层,比如左边的包含输入层、隐层和输出层,而右边的则包含了两个隐层。每层的神经元与下一神经元全互连,同层之间的神经元不会相连,输入层用于接收输入,经过隐层加工后再到输出层加工并输出。

这里写图片描述

如何训练多层网络

对于多层网络我们常用误差逆传播算法来训练,而我们最常见的BP神经网络指的是使用误差逆传播来训练的多层前馈神经网络。除此之外其他类型的神经网络也可能会用误差逆传播算法来训练。

总的来说,误差逆传播是使用梯度下降法,通过反向传播不断调整神经网络中各个权重从而使输出层的误差平方和最小。

BP神经网络

BP神经网络好的地方就是我们完全不必事先考虑怎么用数学方程来描述输入和输出之间的关系,转而考虑的是设计一个N层神经网络,而要多少层、每层要多少个节点就可以我们根据经验来设计,可通过不同的网络模型来看哪个模型能更好地拟合。

BP神经网络其实很直观很好理解,整个过程如下。

下面是一个三层(不算输入层)神经网络,两个输入经过几层网络后得到一个输出。

这里写图片描述

在训练该网络的过程中,输入x1x2f1(e)节点对应的权重为w(x1)1w(x2)1,则有y1=f1(w(x1)1+w(x2)1)

这里写图片描述

f2(e)节点对应的权重为w(x1)2w(x2)2,则有y2=f2(w(x1)2+w(x2)2)
这里写图片描述

f3(e)节点对应的权重为w(x1)3w(x2)3,则有y3=f3(w(x1)3+w(x2)3)
这里写图片描述

这么一来就得到第一层隐层的所有信号输出,接下去往下一层传播,这时对于第二层隐层来说,第一层隐层的所有节点的输出就是它的输入,这时输入节点变为3个,分别为y1y2y3,对应权重为w14 w24 w34,则y4=f4(w14y1+w24y2+w34y3)

这里写图片描述

f5(e)对应的权重为w15 w25 w35,则y5=f5(w15y1+w25y2+w35y3)
这里写图片描述

于是又得到第二层隐层的两个输出,继续往下一层(输出层)传播,对于输出层,第二层隐层的两个节点的输出即为它的输入,此时输入节点为2个,分别为y4y5,假设权重分别为w46 w56,则y6=f6(w46y4+w56y5)

这里写图片描述

误差逆传播

往下看看误差逆传播是怎么一回事。通过上面的过程我们获取到了一个最终的输出,而这个输出与目标值可能存在误差,表示为δ=zy。则对于样本的目标函数为Ed=12i(ziyi)2
这里写图片描述

使用梯度下降法更新每一个权重,即wjiwjiηEdwji。解决了上面的式子就可以完成迭代优化了。
如下图,对于每个节点输入nodej有,

nodej=iwjixji

这里写图片描述
根据链式求导法则有,
Edwji=Ednodejnodejwji=Ednodejiwjixjiwji=Ednodejxji

于是只要求得Ednodej即知道梯度权重更新。

对于输出层,其中yjnodej=sigmoid(nodej)nodej=yj(1yj),则有

Edwji=Edyjyjnodejxji=(tjyj)yj(1yj)xji

则按照下面进行权重更新,
wjiwjiηEdwji=wji+η(tjyj)yj(1yj)xji

为方便表示,也可以令误差项δj=Ednodej,则
δj=(tjyj)yj(1yj)
wjiwji+ηδjxji

有了上面的更新公式后就可以对输出层进行迭代更新了。

对于隐层,设节点j的所有输出为A,则下一层网络有多少个节点,则它的集合大小为多少,比如上图中,对于节点1,它的输出集合A大小为2,分别输出到节点4和节点5。隐层节点的输入nodej通过影响所有输出A再往下影响Ed,再设nodek为下一层的输入,则Ednodek的函数,且nodeknodej的函数。对于节点输入nodej,由于其输出A包含多个元素,有多个影响分量,所以,

Ednodej=kAEdnodeknodeknodej=kAEdnodeknodekf(nodej)f(nodej)nodej=kAδkwkjf(nodej)nodej=kAδkwkjf(nodej)(1f(nodej))=f(nodej)(1f(nodej))kAδkwkj

正则化

为了抑制过拟合,对于整个训练样本集目标函数进行正则化。

E=λ1m1mEd+(1λ)w2

全局最小

神经网络的训练可能陷入局部最小中,有时需要一些策略跳出局部最小,以便有一定几率得到全局最小。
1. 模拟退火
2. 随机梯度下降
3. 多个不同的初始点

实现3-5-1网络

import numpy as np
def nonlin(x,deriv=False):
    if(deriv==True):
        return x*(1-x)
    return 1/(1+np.exp(-x))
X = np.array([[0,0,1],
            [0,1,1],
            [1,0,1],
            [1,1,1]])
y = np.array([[0],
            [1],
            [1],
            [0]])
np.random.seed(1)
syn0 = 2*np.random.random((3,5)) - 1
syn1 = 2*np.random.random((5,1)) - 1
for j in range(60000):
    l0 = X
    l1 = nonlin(np.dot(l0,syn0))
    l2 = nonlin(np.dot(l1,syn1))
    l2_error = y - l2
    if (j% 10000) == 0:
        print("Error:" + str(np.mean(np.abs(l2_error))))
    l2_delta = l2_error*nonlin(l2,deriv=True)
    l1_error = l2_delta.dot(syn1.T)
    l1_delta = l1_error * nonlin(l1,deriv=True)
    g = 0.01
    syn1 += g * l1.T.dot(l2_delta)
    syn0 += g * l0.T.dot(l1_delta)
print(l2)

====广告时间,可直接跳过====

鄙人的新书《Tomcat内核设计剖析》已经在京东预售了,有需要的朋友可以到 https://item.jd.com/12185360.html 进行预定。感谢各位朋友。

=========================

欢迎关注:

这里写图片描述

版权声明:本文为博主原创文章,未经博主允许不得转载。

相关文章推荐

Windows下Anaconda2(Python2)和Anaconda3(Python3)的共存

由于Python有2和3两个版本,因此Anaconda也在Python2和Python3的基础上推出了两个发行版,即Anaconda2和Anaconda3。有时候我们会在电脑上同时使用Anaconda...

神经网络与机器学习

  • 2017-08-27 15:57
  • 37.13MB
  • 下载

神经网络与机器学习

  • 2015-04-27 16:56
  • 37.05MB
  • 下载

[机器学习] Coursera ML笔记 - 神经网络(Learning)

本文主要记录我在学习神经网络模型训练(参数学习)时的笔记,参考UFLDL Tutorial和Coursera ML,笔记中重点讨论了神经网络的代价函数模型和参数学习中的Backpropagation算...
  • walilk
  • walilk
  • 2016-01-12 21:05
  • 5359

神经网络机器学习

  • 2015-09-08 18:38
  • 18.50MB
  • 下载

神经网络与机器学习

  • 2014-05-08 11:17
  • 44.51MB
  • 下载

机器学习中的神经网络Neural Networks for Machine Learning:Lecture 1 Quiz

Lecture 1 QuizHelp Center Warning: The hard deadline has passed. You can attempt it, but you will ...

<机器学习> 神经网络BP_javaDemo

还是周老师的书,对神经网络写了一个小的Demo 是最简单的神经网络,只有一层的隐藏层。 这次练习依旧是对西瓜的好坏进行预测。 主要分了以下几个步骤 1、数据预处理 对西瓜的不同特性进...
内容举报
返回顶部
收藏助手
不良信息举报
您举报文章:深度学习:神经网络中的前向传播和反向传播算法推导
举报原因:
原因补充:

(最多只允许输入30个字)