• 我的消息
  • 我的博客
  • 我的学院
  • 我的下载
  • 我的收藏
  • 消息
  • 搜索条件:
    点击返回全部
    全部文章 > {categoryName }
    • Google提出的新型激活函数:Swish

      简介Swish是Google在10月16号提出的一种新型激活函数,其原始公式为:f(x)=x * sigmod(x),变形Swish-B激活函数的公式则为f(x)=x * sigmod(b * x),...

      原创
      2017-11-26 11:35:15
      259
      0
    • 聊一聊深度学习的weight initialization

      转载自:https://zhuanlan.zhihu.com/p/25110150 TLDR (or the take-away) Weight Initialization matt...

      转载
      2017-09-13 20:19:19
      412
      0
    • 聊一聊深度学习的activation function

      转载自:https://zhuanlan.zhihu.com/p/25110450 TLDR (or the take-away) 优先使用ReLU (Rectified Linear Uni...

      转载
      2017-09-13 20:16:57
      292
      0
    • 卷积神经网络(cnn)的体系结构

      译者注,本篇文章对卷积神经网络有很好的讲解,其内容有相较原文有部分增加与补充,阅读原文请点击这里 原作者的文章其实更利于读者对卷积本身的理解,但是实际上作者对卷积的现实意义的理解并没有解释的十分清楚,...

      翻译
      2017-08-10 21:49:01
      1266
      0
    • 神经网络为什么要归一化

      作者:梁小h 转载自 http://nnetinfo.com/nninfo/showText.jsp?id=37 ========================这里是分割线========...

      转载
      2017-07-01 14:56:05
      1422
      0
    • 梯度下降与delta法则

      delta法则 尽管当训练样例线性可分时,感知器法则可以成功地找到一个权向量,但如果样例不是线性可分时它将不能收敛。 因此,人们设计了另一个训练法则来克服这个不足,称为 delta 法则(delt...

      转载
      2017-06-29 13:41:01
      1255
      0
    • 一文弄懂神经网络中的反向传播法

      最近在看深度学习的东西,一开始看的吴恩达的UFLDL教程,有中文版就直接看了,后来发现有些地方总是不是很明确,又去看英文版,然后又找了些资料看,才发现,中文版的译者在翻译的时候会对省略的公式推导过程进...

      转载
      2017-06-29 11:25:28
      1350
      0
  • 学院
  • 下载
  • 消息