介绍Alexnet Alexnet使用了一些技巧避免过拟合:数据增强,正则化,dropout,局部相应归一化LRN 使用了gpu加速 使用了ReLU非线性激活函数。速度快max(0,x)。 局部相应归一化LRN 对局部神经元的活动创建竞争机制,使得其中响应比较大的值变得相对更大,并抑制其他反馈较小的神经元,增强了模型的泛化能力。 网络模型如下所示: 全连接如下 下面使