周志华机器学习:神经网络

神经网络

参考
神经元模型
  • M-P模型( McCulloch-Pitts Model):1、神经网络学习 之 M-P模型

    • 所谓M-P模型,其实是按照生物神经元的结构和工作原理构造出来的一个抽象和简化了的模型。

    • image-20210718103537256

    • 按照生物神经元,我们建立M-P模型,如上图所示。为了使得建模更加简单,以便于进行形式化表达,我们忽略时间整合作用、不应期等复杂因素,并把神经元的突触时延和强度当成常数。表达式为(其中f是sigmoid函数,Θ是偏差):

      • y j = f ( ∑ i = 1 n W i j ∗ x i − θ ) y_j = f(\sum_{i=1}^n W_{ij}*x_i -\theta) yj=f(i=1nWijxiθ)
感知机与多层网络
  • 与或非的表示:

    • image-20210718111715768
    • image-20210718111702078
  • 对于只有一层的神经元,学习能力有限

    • 若问题是线性可分的,则存在一个线性超平面将其分开,感知器会收敛
    • 否则学习的过程中会发生震荡,对于非线性可分的问题,可以考虑多层神经元
  • 超平面的理解

    • (1) 超平面是指n维线性空间中维度为n-1的子空间。它可以把线性空间分割成不相交的两部分。比如二维空间中,一条直线是一维的,它把平面分成了两块;三维空间中,一个平面是二维的,它把空间分成了两块。

    • (2) 法向量是指垂直于超平面的向量。

  • Loss的推导

    • image-20210718151005442
    • image-20210718151019543
  • 多层网络:只要包含隐藏层,即可称为多层网络

    • image-20210718151245309
误差逆传播算法(反向传播)
  • image-20210718154738053

  • image-20210718153715648

  • image-20210718153743914

5.12-5.14推导
  • 下面是南瓜书的推导过程(5.12-5.14),具体思路类似上面

    • image-20210718154339506
    • image-20210718154359780
    • image-20210718154414684
    • image-20210718154433195
标准BP与累计BP
  • image-20210718155313465
过拟合问题
全局最小和局部极小
其他常见神经网络
RBF
  • 这个比较好理解
  • image-20210719101742610
ART
SOM
  • 参考数之道:15、【数之道 13】实现降维计算的另类神经网络
  • image-20210719112704161
    • 训练过程:
      • 1、Competition:随机选取一组数据,计算权重和输入的差值平方和,得到该数据到神经元的欧几里得空间距离平方,比较所有神经元的欧几里得距离,最小者获胜
        • image-20210719112843757
      • 2、Cooperation(合作):优胜神经元会对周围的神经元进行影响,范围由右侧函数决定
        • image-20210719114011177
      • 3、Adaptation:权重更新按照下面右侧公式进行
        • image-20210719114359587
级联相关网络
  • 参考:16、级联相关神经网络

  • 一般的神经网络是固定好拓扑结构,然后训练权重和阈值。级联相关神经网络是从一个小网络开始,自动训练和添加隐含单元,最终形成一个多层的结构。

  • 级联相关神经网络具有以下优点:

    • 学习速度快;
    • 自己决定神经元个数和深度;
    • 训练集变化之后还能保持原有的结构(这个是缺点还是优点);
    • 不需要后向传播错误信号;
  • 级联相关神经网络(CCNN)

    • 包含两个部分:
      • cascade architecture : 在这个步骤中,隐含单元一个一个的添加到网络中,当他们添加到网络之后就不能更改;
      • learning algorithm : 创造并安装新的单元;
  • 算法过程

    • 这里写图片描述
    • 首先,候选神经元连结到所有的输入隐含神经元(也就是图中的虚线),并且候选神经元的输出不连结到网络上;
    • 然后固定住图中的实线部分,只训练候选神经元的权重(也就是图中的虚线);
    • 当权重训练好之后,就将候选神经元安装到图中空白的层上,也就是第四个区域,这时候选项的连接权就不能再改变了;
    • 接着,
      将候选神经元连结到网络的输出上,这时候选神经元被激活,开始训练网络的所有输出连接权;
    • 重复以上步骤;
  • 候选神经元的训练目标是最大化新神经元的输出和网络训练误差之间的相关性 :

    • image-20210719120124003
  • 为了最大化S,我们需要计算∂S/∂wt:

    • image-20210719120156907
    • 我们使用梯度上升算法来最大化S。然后再训练单层的权值。
Elman网络
Boltzmann机
  • 0
    点赞
  • 3
    收藏
    觉得还不错? 一键收藏
  • 打赏
    打赏
  • 0
    评论

“相关推荐”对你有帮助么?

  • 非常没帮助
  • 没帮助
  • 一般
  • 有帮助
  • 非常有帮助
提交
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包

打赏作者

椰子奶糖

你的鼓励将是我创作的最大动力

¥1 ¥2 ¥4 ¥6 ¥10 ¥20
扫码支付:¥1
获取中
扫码支付

您的余额不足,请更换扫码支付或充值

打赏作者

实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值