第 1 门课程:神经网络和深度学习(Neural Networks and Deep Learning)
第一周 深度学习概论(Introduction to deep learning)
学习驱动神经网络兴起的主要技术趋势,了解现今深度学习在哪里应用、如何应用。
1.1 欢迎来到深度学习工程师微专业(Welcome)
1.2 什么是神经网络?(What is a neural network?)
1.3 用神经网络进行监督学习(Supervised Learning with Neural Networks)
1.4 为什么深度学习会兴起?(Why is Deep Learning taking off?)
1.5 关于这门课(About this Course)
1.6 课程资源(Course Resources)
第二周 神经网络基础(Neural Networks Basics)
学习如何用神经网络的思维模式提出机器学习问题、如何使用向量化加速你的模型。
2.1 二分分类(Binary Classification)
2.2 logistic 回归(Logistic Regression)
2.3 logistic 回归损失函数(Logistic Regression Cost Function)
2.4 梯度下降法(Gradient Descent)
2.5 导数(Derivatives)
2.6 更多导数的例子(More Derivative Examples)
2.7 计算图(Computation graph)
2.8 计算图的导数计算(Derivatives with a Computation Graph)
2.9 logistic 回归中的梯度下降法(Logistic Regression Gradient Descent)
2.10 m 个样本的梯度下降(Gradient Descent on m Examples)
2.11 向量化(Vectorization)
2.12 向量化的更多例子(More Vectorization Examples)
2.13 向量化 logistic 回归(Vectorizing Logistic Regression)
2.14 向量化 logistic 回归的梯度输出(Vectorizing Logistic Regression’s Gradient Output)
2.15 Python 中的广播(Broadcasting in Python)
2.16 关于 python / numpy 向量的说明(A note on python/numpy vectors)
2.17 Jupyter / Ipython 笔记本的快速指南(Quick tour of Jupyter/iPython Notebooks)
2.18 (选修)logistic 损失函数的解释(Explanation of logistic regression cost function (optional))
第三周 浅层神经网络(Shallow neural networks)
学习使用前向传播和反向传播搭建出有一个隐藏层的神经网络。
3.1 神经网络概览(Neu