L1/L2正则化:
https://zhuanlan.zhihu.com/p/25707761
教程 | 没有博士学位,照样玩转TensorFlow深度学习:
https://blog.csdn.net/zhongxon/article/details/54709347
小白都能看懂的softmax详解:
https://blog.csdn.net/bitcarmanlee/article/details/82320853
为啥很多人推荐用relu做激活函数:
https://blog.csdn.net/cherrylvlei/article/details/53149381
交叉熵:
如何通俗的解释交叉熵与相对熵? - CyberRep的回答 - 知乎
https://www.zhihu.com/question/41252833/answer/195901726
最容易理解的对卷积(convolution)的解释:
https://blog.csdn.net/bitcarmanlee/article/details/54729807
CNN卷积神经网络:
http://www.aiportal.net/cnns/卷积神经网络入门教程-滤波器-提取特征
关于CPU和GPU的工作性质:
http://www.uml.org.cn/embeded/201809034.asp
Tensorflow中Tensor类型解析:
https://blog.csdn.net/fly2leo/article/details/78539950