引言
这个系列供六篇文章, 将从最基础的全连接网络DNN开始, 从零开始用Python/Numpy实现包含CNN, RNN等在内的深度网络模型。
我们已经有了TensorFlow/PyTorch这样强大的深度学习计算框架,但从零开始自己实现基本的神经网络(特别是反向传播)仍然是必要的, 理由在于能够更清楚的理解网络结构和反向传播的原理。
了解各种网络的局限性和工程优化。
更加深刻的理解神经网络的演化和优化过程。
本文所介绍的所有模型, Trainer及应用等都附有完整的代码实现。对任何实现有疑问, 欢迎在本文后留言提问。
欢迎转载, 转载请注明出处及链接。
完整代码库请查看我的GithubRepo: .部分代码参考了Stanford CS231n 课程作业, 在此致谢。
PS 为什么要开设这个专栏
其实专栏中的很多文章都引自我的博客, 如果熟悉我的博客的同学, 应该没有什么新东西。 之所以开设这个专栏, 是希望,
1, 以合辑的形式, 重新整理一下散乱的博客文章
2, 能有一个场所供大家交流(毕竟我的博客迟迟没有上线留言功能, 哭~~)
3, 能让更多的同学看到这些文章
希望大家能在这个专栏里玩的开心~
文章汇总
本文由六篇文章组成。
第一篇, 介绍了神经网络的基础DNN各种基本结构的实现(包括方向传播), 并简要讨论了神经网络相比传统结构的优势。
链接:CNN卷积网络的Python实现(一):FCN全连接网络fanding.xyz
第二篇, 重点介绍了DNN中的一个重要概念, 正则化(R