吴恩达-DeepLearning.ai-Course2-Week2笔记
本周主要讲解加速神经网络的算法1.小批量梯度下降算法(mini-batch gradient descent)如果你得训练集数量巨大,500万或者上千万,梯度下降算法会非常慢,如果你让梯度下降在处理完整个巨型的500万训练集之前就开始有所成效,具体来说:首先将你的训练集拆分成更小的微小的训练集,即小批量训练集(mini-batch),注意新符号的引入和维度所以一共有5000个小批量样例,对于Y也做...
原创
2018-03-15 21:25:32 ·
413 阅读 ·
0 评论