- 博客(2)
- 资源 (4)
- 收藏
- 关注
原创 理解Batch Normalization
在进行神经网络的训练前,通常都要对数据做一个归一化处理。那么具体是为什么呢? 神经网络的本质是为了学习数据的分布,一旦训练数据和测试数据的分布不同,网络的泛化能力就会大大降低; 在做batch梯度下降的时候,一旦每批训练数据的分布不同,那么网络就要每次迭代去学习适应不同的分布,大大降低了网络训练的速度 Batch Normalization是在GoogleNet的系列文章...
2018-09-13 16:12:06 635
转载 Python 描述可变数据
原文链接:SICP Python 描述 2.4 可变数据 目录 可变数据2.4.1 局部状态2.4.2 非局部赋值的好处2.4.3 非局部赋值的代价2.4.4 列表2.4.5 字典2.4.6 示例:传播约束 可变数据来源:2.4 Mutable Data译者:飞龙协议:CC BY-NC-SA 4.0我们已经看到了抽象在帮助我们应对大型...
2018-09-09 20:53:09 645
机器学习基础概念梳理及面试常见问题整理
2023-02-16
CTPN网络相关的解析
2019-03-18
Tensorflow实现简单CNN
2018-07-26
Tensorflow实现一个简单的CNN
2018-07-26
GoogleNet V4-Inception
2018-04-25
空空如也
TA创建的收藏夹 TA关注的收藏夹
TA关注的人