- 博客(4)
- 收藏
- 关注
原创 ResNet变体的设计演进与未来方向
引入注意力机制(SE-ResNet)和dense连接(DenseNet)来增强模块表达能力,设计可递归的模块(FractalNet)或可压缩模块(CondenseNet)来优化参数和计算量,并提出并行多路径(DualPathNet)或混合不同网络特点(DPN)的创新结构。总体而言,残差网络提供了一个非常活跃的研究平台,未来几年模块设计、网络连接和组件功能等方面都将不断涌现新思路,整体趋势是模块更加规范化与有效Parameter化,网络结构与组件功能不断丰富,从而在效率、效果和适用性上取得更好的平衡。
2023-08-04 09:28:06 445 1
原创 caffe各个层初探(二 data layers)
从文档的总结来看,主要有如下类目: Image Data - read raw images. Database - read data from LEVELDB or LMDB. HDF5 Input - read HDF5 data, allows data of arbitrary dimensions. HDF5 Output - write data as HDF5. Inpu...
2018-07-27 17:03:57 191
原创 caffe各个层初探(一综述)
一开始先把总的层都给罗列出来,有一个整体的印象Data layers Vision layers Recurret layers Common layers Normalization layers Activaction/Neuron layers Utility layers Loss layers接下来简要叙述,各层主要功能,后面分类讲述。Data layers ...
2018-07-27 16:48:39 325
原创 卷积神经网络(如caffe)个参数的定义和FLOP计算量的计算
刚开始看神经网,结合很多文章,做了一些总结,写下来也方便后面查看。有不足的地方,希望多多批评指正。1.卷积的数学推导先从卷积的数学推导说起,卷积的数学表达就是,即是两个变量在某范围内相乘后求和的结果。如果卷积的变量是序列x(n)和h(n),则卷积的结果又可以变成离散的方式:从公式上看,描述了f(x)和一个经过反折和偏移的g(x)的乘子项的累加过程。基于这一点的数学意义,这两个函数zai...
2018-07-24 16:07:46 7807
空空如也
空空如也
TA创建的收藏夹 TA关注的收藏夹
TA关注的人