人工智能
冰糖不在家
这个作者很懒,什么都没留下…
展开
-
Batch Normalization 使用位置讨论
Batch Normalization 技术出现在各种模型中关于 Batch Normalization 层在模型中的位置,有人说放在激活函数前结果好,有人说放在激活函数后比较好最合适的确定方式就是在实验过程中进行确定(这同样也是令人无奈的结论)通过以下实验进行一个简单讨论:模型:一个4层的神经网络(num_features -> 128 -> 64 -> 32 -> 2),激活函数 LeakyReLU,损失函数交叉熵,需要讨论的 BatchNorm1d 的应用:原创 2021-04-06 21:05:36 · 1603 阅读 · 2 评论 -
Dendrite Net 树突网络 简介
本文内容整理自Liu Gang关于Dendrite Net(树突网络)的相关内容,以PPT形式展示进行简单介绍感谢Liu Gang等人的辛勤劳动和无私分享,如需了解Dendrite Net详细内容,请查看作者相关文章及其他参考文献【1】Dendrite Net: A White-Box Module for Classification, Regression, and System Identification【2】It may be time to improve the neuron of原创 2020-12-19 21:24:15 · 1711 阅读 · 2 评论