吴恩达《深度学习工程师》课程笔记--章节目录

第 1 门课程:神经网络和深度学习(Neural Networks and Deep Learning)


第一周 深度学习概论(Introduction to deep learning)
学习驱动神经网络兴起的主要技术趋势,了解现今深度学习在哪里应用、如何应用。

1.1 欢迎来到深度学习工程师微专业(Welcome)
1.2 什么是神经网络?(What is a neural network?)
1.3 用神经网络进行监督学习(Supervised Learning with Neural Networks)
1.4 为什么深度学习会兴起?(Why is Deep Learning taking off?)
1.5 关于这门课(About this Course)
1.6 课程资源(Course Resources)


第二周 神经网络基础(Neural Networks Basics)
学习如何用神经网络的思维模式提出机器学习问题、如何使用向量化加速你的模型。

2.1 二分分类(Binary Classification)
2.2 logistic 回归(Logistic Regression)
2.3 logistic 回归损失函数(Logistic Regression Cost Function)
2.4 梯度下降法(Gradient Descent)
2.5 导数(Derivatives)
2.6 更多导数的例子(More Derivative Examples)
2.7 计算图(Computation graph)
2.8 计算图的导数计算(Derivatives with a Computation Graph)
2.9 logistic 回归中的梯度下降法(Logistic Regression Gradient Descent)
2.10 m 个样本的梯度下降(Gradient Descent on m Examples)
2.11 向量化(Vectorization)
2.12 向量化的更多例子(More Vectorization Examples)
2.13 向量化 logistic 回归(Vectorizing Logistic Regression)
2.14 向量化 logistic 回归的梯度输出(Vectorizing Logistic Regression’s Gradient Output)
2.15 Python 中的广播(Broadcasting in Python)
2.16 关于 python / numpy 向量的说明(A note on python/numpy vectors)
2.17 Jupyter / Ipython 笔记本的快速指南(Quick tour of Jupyter/iPython Notebooks)
2.18 (选修)logistic 损失函数的解释(Explanation of logistic regression cost function (optional))


第三周 浅层神经网络(Shallow neural networks)
学习使用前向传播和反向传播搭建出有一个隐藏层的神经网络。

3.1 神经网络概览(Neu

  • 1
    点赞
  • 6
    收藏
    觉得还不错? 一键收藏
  • 0
    评论

“相关推荐”对你有帮助么?

  • 非常没帮助
  • 没帮助
  • 一般
  • 有帮助
  • 非常有帮助
提交
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值