2020-5-6 吴恩达DL学习-神经网络和深度学习Neural Network and Deep Learning-第三周 浅层神经网络

274 篇文章 24 订阅
233 篇文章 0 订阅

1.视频网站:mooc慕课https://mooc.study.163.com/university/deeplearning_ai#/c
2.详细笔记网站(中文):http://www.ai-start.com/dl2017/
3.github课件+作业+答案:https://github.com/stormstone/deeplearning.ai

学习使用前向传播和反向传播搭建出有一个隐藏层的神经网络。包含

  • 如何设立单隐藏层NN
  • 初始化参数
  • 用正向传播计算预测值
  • 计算导数,使用梯度下降进行反向传播

3.1 神经网络概览 Neural Networks Overview

2020-5-6 吴恩达-NN&DL-w3 浅层NN(3.1 神经网络概览)

3.2 神经网络表示 Neural Network Representation

2020-5-7 吴恩达-NN&DL-w3 浅层NN(3.3 计算神经网络的输出,3.4 多样本向量化)

3.3 计算神经网络的输出 Computing a Neural Network’s Output

2020-5-7 吴恩达-NN&DL-w3 浅层NN(3.3 计算神经网络的输出,3.4 多样本向量化)

3.4 多样本向量化 Vectorizing across multiple examples

2020-5-7 吴恩达-NN&DL-w3 浅层NN(3.3 计算神经网络的输出)

3.5 向量化实现的解释 Explanation for vectorized implementation

2020-5-8 吴恩达-NN&DL-w3 浅层NN(3.5 向量化实现的解释(含算法总结),3.6 激活函数-3种)

3.6 激活函数 Activation functions

2020-5-8 吴恩达-NN&DL-w3 浅层NN(3.5 向量化实现的解释(含算法总结),3.6 激活函数-3种)

3.7 为什么需要非线性激活函数?Why do you need non linear activation functions?

2020-5-9 吴恩达-NN&DL-w3 浅层NN(3.7 为什么需要非线性激活函数)

3.8 激活函数的导数 Derivatives of activation functions

2020-5-9 吴恩达-NN&DL-w3 浅层NN(3.8 激活函数的导数,3.9 神经网络的梯度下降法)

3.9 神经网络的梯度下降法 Gradient descent for neural networks

2020-5-9 吴恩达-NN&DL-w3 浅层NN(3.8 激活函数的导数,3.9 神经网络的梯度下降法)

3.10 (选修)直观理解反向传播 Backpropagation intuition (Optional)

2020-5-10 吴恩达-NN&DL-w3 浅层NN(3.10 (选修)直观理解反向传播)

3.11 随机初始化 Random Initialization

2020-5-10 吴恩达-NN&DL-w3 浅层NN(3.11 随机初始化-否则完全对称,多个隐藏单元没有意义)

课后测验

2020-6-10 吴恩达-NN&DL-w3 浅层NN(课后作业)

课后编程

2020-6-13 吴恩达-NN&DL-w3 浅层NN(课后编程-Planar data classification with one hidden layer)

  • 0
    点赞
  • 0
    收藏
    觉得还不错? 一键收藏
  • 0
    评论
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值