智能突触《Continual Learning Through Synaptic Intelligence》(SI)

Abstract

  ANN的参数在训练阶段对数据集中学习,在部署和召回阶段对新数据进行冻结和静态使用,为了适应在数据分配的改变,ANN必须重新训练全部的数据集来避免灾难性遗忘

  在研究中,作者引入了智能突触将生物的复杂性带到人工智能神经网络中

避免灾难性遗忘的方法
  通过巩固重要的突触来预防他们在未来任务中的改变 ,因此对于新任务的学习由那些对过去不太重要的突触所介导,从而避免额对过去任务的灾难性遗忘

  为了解决神经网络持续学习的问题,我们试图构建了一个结构化的正则器,它可以在线计算并在每个突触处局部实现
突触

  引进了一种在线的方法,通过整合对解决过去任务很重要的参数变化来避免灾难性遗忘,同时只允许不重要的参数学习解决新的新的任务

Conclusion

EWC 和 SI 是比较经典的计算网络参数不同重要性的方法,具体来说:

  • EWC 通过估计 Fisher Information Matrix 的对角线值来计算参数重要性。
  • SI 估计损失函数对于参数的敏感性来计算参数重要性。

正则化惩罚与EWC类似,不同的是,他们以现在的方法和参数空间中的整个学习轨迹计算每个突触的整合强度,而EWC是指定任务的最小损失Fisher离线计算

  • 1
    点赞
  • 2
    收藏
    觉得还不错? 一键收藏
  • 0
    评论
突触权重向量的初始化是神经网络中非常重要的一步,它决定了神经网络的初始状态和学习过程中的收敛性。通常情况下,突触权重向量的初始化可以使用以下几种方法: 1. 随机初始化:将突触权重向量初始化为一个小的随机数。这种方法适用于大多数情况,可以帮助网络避免陷入局部最优解。常见的随机初始化方法包括从均匀分布或高斯分布中随机采样。 2. 零初始化:将突触权重向量初始化为零。这种方法适用于某些特定情况,例如当网络的输入特征已经被预处理为具有零均值的情况。 3. Xavier初始化:根据突触权重向量的输入和输出维度,使用特定的公式来初始化权重。Xavier初始化方法可以帮助网络在前向传播和反向传播过程中保持梯度的稳定性。 4. He初始化:类似于Xavier初始化,但是根据突触权重向量的输入维度来初始化权重。He初始化方法适用于使用ReLU激活函数的网络。 下面是一个使用随机初始化方法初始化突触权重向量的例子: ```python import numpy as np # 初始化突触权重向量 input_size = 784 hidden_size = 100 output_size = 10 # 随机初始化隐藏层和输出层的权重 W1 = np.random.randn(input_size, hidden_size) * 0.01 b1 = np.zeros(hidden_size) W2 = np.random.randn(hidden_size, output_size) * 0.01 b2 = np.zeros(output_size) # 打印初始化后的权重 print("隐藏层权重:", W1) print("隐藏层偏置:", b1) print("输出层权重:", W2) print("输出层偏置:", b2) ```

“相关推荐”对你有帮助么?

  • 非常没帮助
  • 没帮助
  • 一般
  • 有帮助
  • 非常有帮助
提交
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值