- 博客(6)
- 资源 (3)
- 收藏
- 关注
原创 continous attractor neural networks - 连续吸引子网络(ing)
continous attractor neural networks - 连续吸引子网络。处理视觉信号的网络是经典的CNN卷积神经网络,属于人工神经网络ANN家族。 然而故事还没有结束, 在CNN的下面, 有一个主管视觉追踪的CANN网络, 虽然只有一个字母之差, 这可不是卷积神经网络, 这四个字母的含义是continous attractor neural networks - 连续吸引子网络。所谓空间吸引子, 说的是一种特化了的循环神经网络, 网络的动力学导致一系列可以根据外界信号连续变化的吸引子
2020-12-27 22:01:40 2664 1
原创 【Meta-Learning】元学习综述 :A Survey of Deep Meta-Learning (ing)
文章目录原文: https://arxiv.org/pdf/2010.03522.pdf
2020-12-27 21:56:59 602
原创 Uber Thomas 论文整理
Thomas MiconiWorkingNeural networks with differentiable structure虽然梯度下降在学习神经网络的连接权值方面已经被证明是非常成功的,但是这些网络的实际结构通常是由人工或其他优化算法来确定的。这里我们描述了一个简单的方法,使网络结构可微,从而可以得到梯度下降。我们在应用于简单序列预测问题的递归神经网络上测试了这种方法。从只包含一个节点的初始网络开始,该方法自动构建成功解决任务的网络。最终网络中的节点数与任务难度有关。该方法可以动态地增加网络规
2020-12-24 15:00:53 446
原创 【Meta-Learning】元学习综述 Meta-Learning in Neural Networks: A Survey (ing)
文章目录参考资料元学习是什么元学习的研究现状元学习有哪些方法参考资料论文原文: https://arxiv.org/pdf/2004.05439.pdf现有翻译: https://blog.csdn.net/qq_38680752/article/details/106488508论文集合: https://github.com/floodsung/Meta-Learning-Papers元学习是什么参考资料 :元学习(Meta-learning)——李宏毅老师教学视频笔记 - 郑思座的文章 -
2020-12-18 22:25:44 3065
原创 Differentiable plasticity: training plastic neural networks withbackpropagation
http://proceedings.mlr.press/v80/miconi18a/miconi18a.pdf文章目录AbstractIntroductionRelated workintroAbstract1、 通过梯度下降 优化可微塑性2、 在测试集合中, 训练集中从未见过的自然图像集合, 能重建。3、 可以解决一般的元学习任务。IntroductionMany of the recent spectacular successes in machine learn-ing invol
2020-12-18 22:11:28 302
原创 SNN ANN 多模态融合 神经网络发展过程的两个分支
人工神经网络ANN和脉冲神经网络SNN, 所谓的ANN和SNN, 事实上是神经网络发展过程的两个分支。 欲了解其背景先了解其历史。作者:许铁-巡洋舰科技链接:https://www.zhihu.com/question/338090715/answer/772503438来源:知乎著作权归作者所有。商业转载请联系作者获得授权,非商业转载请注明出处。神经网络的故事从模拟单个神经元开始: 神经元是神经网络信息传输的“原子”。通过一定的方法连接这些原子,就可以得到具有智能的系统, 这算是整个人工智能“连
2020-12-18 21:57:11 3643 1
空空如也
TA创建的收藏夹 TA关注的收藏夹
TA关注的人