1.视频网站:mooc慕课https://mooc.study.163.com/university/deeplearning_ai#/c
2.详细笔记网站(中文):http://www.ai-start.com/dl2017/
3.github课件+作业+答案:https://github.com/stormstone/deeplearning.ai
第三周 浅层神经网络 One hidden layer Neural Network
- 3.1 神经网络概览 Neural Networks Overview
- 3.2 神经网络表示 Neural Network Representation
- 3.3 计算神经网络的输出 Computing a Neural Network’s Output
- 3.4 多样本向量化 Vectorizing across multiple examples
- 3.5 向量化实现的解释 Explanation for vectorized implementation
- 3.6 激活函数 Activation functions
- 3.7 为什么需要非线性激活函数?Why do you need non linear activation functions?
- 3.8 激活函数的导数 Derivatives of activation functions
- 3.9 神经网络的梯度下降法 Gradient descent for neural networks
- 3.10 (选修)直观理解反向传播 Backpropagation intuition (Optional)
- 3.11 随机初始化 Random Initialization
- 课后测验
- 课后编程
学习使用前向传播和反向传播搭建出有一个隐藏层的神经网络。包含
- 如何设立单隐藏层NN
- 初始化参数
- 用正向传播计算预测值
- 计算导数,使用梯度下降进行反向传播
3.1 神经网络概览 Neural Networks Overview
2020-5-6 吴恩达-NN&DL-w3 浅层NN(3.1 神经网络概览)
3.2 神经网络表示 Neural Network Representation
2020-5-7 吴恩达-NN&DL-w3 浅层NN(3.3 计算神经网络的输出,3.4 多样本向量化)
3.3 计算神经网络的输出 Computing a Neural Network’s Output
2020-5-7 吴恩达-NN&DL-w3 浅层NN(3.3 计算神经网络的输出,3.4 多样本向量化)
3.4 多样本向量化 Vectorizing across multiple examples
2020-5-7 吴恩达-NN&DL-w3 浅层NN(3.3 计算神经网络的输出)
3.5 向量化实现的解释 Explanation for vectorized implementation
2020-5-8 吴恩达-NN&DL-w3 浅层NN(3.5 向量化实现的解释(含算法总结),3.6 激活函数-3种)
3.6 激活函数 Activation functions
2020-5-8 吴恩达-NN&DL-w3 浅层NN(3.5 向量化实现的解释(含算法总结),3.6 激活函数-3种)
3.7 为什么需要非线性激活函数?Why do you need non linear activation functions?
2020-5-9 吴恩达-NN&DL-w3 浅层NN(3.7 为什么需要非线性激活函数)
3.8 激活函数的导数 Derivatives of activation functions
2020-5-9 吴恩达-NN&DL-w3 浅层NN(3.8 激活函数的导数,3.9 神经网络的梯度下降法)
3.9 神经网络的梯度下降法 Gradient descent for neural networks
2020-5-9 吴恩达-NN&DL-w3 浅层NN(3.8 激活函数的导数,3.9 神经网络的梯度下降法)
3.10 (选修)直观理解反向传播 Backpropagation intuition (Optional)
2020-5-10 吴恩达-NN&DL-w3 浅层NN(3.10 (选修)直观理解反向传播)
3.11 随机初始化 Random Initialization
2020-5-10 吴恩达-NN&DL-w3 浅层NN(3.11 随机初始化-否则完全对称,多个隐藏单元没有意义)
课后测验
2020-6-10 吴恩达-NN&DL-w3 浅层NN(课后作业)
课后编程
2020-6-13 吴恩达-NN&DL-w3 浅层NN(课后编程-Planar data classification with one hidden layer)