这些课程专为已有一定基础(基本的编程知识,熟悉 Python、对机器学习有基本了
解),想要尝试进入人工智能领域的计算机专业人士准备。介绍显示:“深度学习是科技业
最热门的技能之一,本课程将帮你掌握深度学习。” 学生将可以学习到深度学习的基础,学会构建神经网络,并用在包括吴恩达本人在内的多位业界顶尖专家指导下创建自己的机器学习项目。 Deep Learning Specialization 对卷积神经网络 (CNN)、递归神经网络 (RNN)、长短期记忆 (LSTM) 等深度学习常用的网络结构、工具和知识都有涉及。
课程中也会有很多实操项目,帮助学生更好地应用自己学到的深度学习技术,解决真
实世界问题。这些项目将涵盖医疗、自动驾驶、和自然语言处理等时髦领域,以及音乐生
成等等。 Coursera 上有一些特定方向和知识的资料,但一直没有比较全面、深入浅出的深
度学习课程——《深度学习专业》的推出补上了这一空缺。
# 目录
## 第一门课 神经网络和深度学习 (Neural Networks and Deep Learning)
1. 第一周:深度学习引言 (Introduction to Deep Learning)
- 1.1 欢迎 (Welcome)
- 1.2 什么是神经网络? (What is a Neural Network)
- 1.3 神经网络的监督学习 (Supervised Learning with Neural Networks)
- 1.4 为什么深度学习会兴起? (Why is Deep Learning taking off?)
- 1.5 关于这门课 (About this Course)
- 1.6 课程资源 (Course Resources)
2. 第二周:神经网络的编程基础 (Basics of Neural Network Programming)
- 2.1 二分类 (Binary Classification)
- 2.2 逻辑回归 (Logistic Regression)
- 2.3 逻辑回归的代价函数 (Logistic Regression Cost Function)
- 2.4 梯度下降法 (Gradient Descent)
- 2.5 导数 (Derivatives)
- 2.6 更多的导数例子 (More Derivative Examples)
- 2.7 计算图 (Computation Graph)
- 2.8 使用计算图求导数 (Derivatives with a Computation Graph)
- 2.9 逻辑回归中的梯度下降 (Logistic Regression Gradient Descent)
- 2.10 m个样本的梯度下降 (Gradient Descent on m Examples)
- 2.11 向量化 (Vectorization)
- 2.12 向量化的更多例子 (More Examples of Vectorization)
- 2.13 向量化逻辑回归 (Vectorizing Logistic Regression)
- 2.14 向量化逻辑回归的梯度输出 (Vectorizing Logistic Regression's Gradient)
- 2.15 Python中的广播 (Broadcasting in Python)
- 2.16 关于python/numpy向量的说明 (A note on python or numpy vectors)
- 2.17 Jupyter/iPython Notebooks快速入门 (Quick tour of Jupyter/iPython Notebooks)
- 2.18 (选修) logistic损失函数的解释 (Explanation of logistic regression cost function)
3. 第三周:浅层神经网络 (Shallow Neural Networks)
- 3.1 神经网络概述 (Neural Network Overview)
- 3.2 神经网络的表示 (Neural Network Representation)
- 3.3 计算一个神经网络的输出 (Computing a Neural Network's output)
- 3.4 多样本向量化 (Vectorizing across multiple examples)
- 3.5 向量化实现的解释 (Justification for vectorized implementation)
- 3.6 激活函数 (Activation Functions)
- 3.7 为什么需要非线性激活函数? (Why need a nonlinear activation function?)
- 3.8 激活函数的导数 (Derivatives of Activation Functions)
- 3.9 神经网络的梯度下降 (Gradient Descent for Neural Networks)
- 3.10 (选修)直观理解反向传播 (Backpropagation Intuition)
- 3.11 随机初始化 (Random Initialization)
4. 第四周:深层神经网络 (Deep Neural Networks)
- 4.1 深层神经网络 (Deep L-layer Neural Network)
- 4.2 前向传播和反向传播 (Forward and Backward Propagation)
- 4.3 深层网络中的前向传播 (Forward Propagation in a Deep Network)
- 4.4 核对矩阵的维数 (Getting Your Matrix Dimensions Right)
- 4.5 为什么使用深层表示? (Why Deep Representations?)
- 4.6 搭建神经网络块 (Building Blocks of Deep Neural Networks)
- 4.7 参数VS超参数 (Parameters vs Hyperparameters)
- 4.8 深度学习和大脑的关联性 (What Does This Have to Do with the Brain?)
## 第二门课 改善深层神经网络:超参数调试、正则化以及优化 (Improving Deep Neural Networks: Hyperparameter Tuning, Regularization and Optimization)
1. 第一周:深度学习的实践层面 (Practical Aspects of Deep Learning)
- 1.1 训练,验证,测试集 (Train / Dev / Test Sets)
- 1.2 偏差,方差 (Bias / Variance)
- 1.3 机器学习基础 (Basic Recipe for Machine Learning)
- 1.4 正则化 (Regularization)
- 1.5 为什么正则化有利于预防过拟合? (Why Regularization Reduces Overfitting?)
- 1.6 dropout正则化 (Dropout Regularization)
- 1.7 理解dropout (Understanding Dropout)
- 1.8 其他正则化方法 (Other Regularization Methods)
- 1.9 归一化输入 (Normalizing Inputs)
- 1.10 梯度消失/梯度爆炸 (Vanishing / Exploding Gradients)
- 1.11 神经网络的权重初始化 (Weight Initialization for Deep Networks)
- 1.12 梯度的数值逼近 (Numerical Approximation of Gradients)
- 1.13 梯度检验 (Gradient Checking)
- 1.14 梯度检验应用的注意事项 (Gradient Checking Implementation Notes)
2. 第二周:优化算法 (Optimization Algorithms)
- 2.1 Mini-batch梯度下降 (Mini-batch Gradient Descent)
- 2.2 理解Mini-batch梯度下降法 (Understanding Mini-batch Gradient Descent)
- 2.3 指数加权平均数 (Exponentially Weighted Averages)
- 2.4 理解指数加权平均数 (Understanding Exponentially Weighted Averages)
- 2.5 指数加权平均的偏差修正 (Bias Correction in Exponentially Weighted Averages)
- 2.6 动量梯度下降法 (Gradient Descent with Momentum)
- 2.7 RMSprop
- 2.8 Adam优化算法 (Adam Optimization Algorithm)
- 2.9 学习率衰减 (Learning Rate Decay)
- 2.10 局部最优的问题 (The Problem of Local Optima)
3. 第三周:超参数调试、Batch正则化和程序框架 (Hyperparameter Tuning, Batch Normalization, and Programming Frameworks)
- 3.1 调试处理 (Tuning Process)
- 3.2 为超参数选择合适的范围 (Using an Appropriate Scale to Pick Hyperparameters)
- 3.3 超参数调试实践:Pandas VS Caviar (Hyperparameters Tuning in Practice: Pandas vs. Caviar)
- 3.4 归一化网络的激活函数 (Normalizing Activations in a Network)
- 3.5 将Batch Norm拟合进神经网络 (Fitting Batch Norm into a Neural Network)
- 3.6 Batch Norm为什么奏效? (Why Does Batch Norm Work?)
- 3.7 测试时的Batch Norm (Batch Norm at Test Time)
- 3.8 Softmax回归 (Softmax Regression)
- 3.9 训练一个Softmax分类器 (Training a Softmax Classifier)
- 3.10 深度学习框架 (Deep Learning Frameworks)
- 3.11 TensorFlow
## 第三门课 结构化机器学习项目 (Structuring Machine Learning Projects)
1. 第一周:机器学习策略 (1) (ML Strategy (1))
- 1.1 为什么是ML策略? (Why ML Strategy?)
- 1.2 正交化 (Orthogonalization)
- 1.3 单一数字评估指标 (Single Number Evaluation Metric)
- 1.4 满足和优化指标 (Satisficing and Optimizing Metrics)
- 1.5 训练/开发/测试集划分 (Train/Dev/Test Distributions)
- 1.6 开发集和测试集的大小 (Size of Dev and Test Sets)
- 1.7 什么时候该改变开发/测试集和指标? (When to Change Dev/Test Sets and Metrics)
- 1.8 为什么是人的表现? (Why Human-Level Performance?)
- 1.9 可避免偏差 (Avoidable Bias)
- 1.10 理解人的表现 (Understanding Human-Level Performance)
- 1.11 超过人的表现 (Surpassing Human-Level Performance)
- 1.12 改善你的模型的表现 (Improving Your Model Performance)
2. 第二周:机器学习策略 (2) (ML Strategy (2))
- 2.1 进行误差分析 (Carrying Out Error Analysis)
- 2.2 清除标注错误的数据 (Cleaning Up Incorrectly Labeled Data)
- 2.3 快速搭建你的第一个系统,并进行迭代 (Build Your First System Quickly, Then Iterate)
- 2.4 使用来自不同分布的数据进行训练和测试 (Training and Testing on Different Distributions)
- 2.5 数据分布不匹配时的偏差与方差的分析 (Bias and Variance with Mismatched Data Distributions)
- 2.6 处理数据不匹配问题 (Addressing Data Mismatch)
- 2.7 迁移学习 (Transfer Learning)
- 2.8 多任务学习 (Multi-Task Learning)
- 2.9 什么是端到端的深度学习? (What is End-to-End Deep Learning?)
- 2.10 是否要使用端到端的深度学习? (Whether to Use End-to-End Learning?)
## 第四门课 卷积神经网络 (Convolutional Neural Networks)
1. 第一周:卷积神经网络基础 (Foundations of Convolutional Neural Networks)
- 1.1 计算机视觉 (Computer Vision)
- 1.2 边缘检测示例 (Edge Detection Example)
- 1.3 更多边缘检测内容 (More Edge Detection)
- 1.4 Padding
- 1.5 卷积步长 (Strided Convolutions)
- 1.6 三维卷积 (Convolutions over Volumes)
- 1.7 单层卷积网络 (One Layer of a Convolutional Network)
- 1.8 简单卷积网络示例 (A Simple Convolutional Network Example)
- 1.9 池化层 (Pooling Layers)
- 1.10 卷积神经网络示例 (Convolutional Neural Network Example)
- 1.11 为什么使用卷积? (Why Convolutions?)
2. 第二周:深度卷积网络实例探究 (Deep Convolutional Models: Case Studies)
- 2.1 为什么要进行实例探究? (Why Look at Case Studies?)
- 2.2 经典网络 (Classic Networks)
- 2.3 残差网络 (ResNets) (Residual Networks (ResNets))
- 2.4 残差网络为什么有用? (Why ResNets Work?)
- 2.5 网络中的网络以及1×1卷积 (Network in Network and 1×1 Convolutions)
- 2.6 谷歌Inception网络简介 (Inception Network Motivation)
- 2.7 Inception网络 (Inception Network)
- 2.8 使用开源的实现方案 (Using Open-Source Implementations)
- 2.9 迁移学习 (Transfer Learning)
- 2.10 数据增强 (Data Augmentation)
- 2.11 计算机视觉现状 (The State of Computer Vision)
3. 第三周:目标检测 (Object Detection)
- 3.1 目标定位 (Object Localization)
- 3.2 特征点检测 (Landmark Detection)
- 3.3 目标检测 (Object Detection)
- 3.4 滑动窗口的卷积实现 (Convolutional Implementation of Sliding Windows)
- 3.5 Bounding Box预测 (Bounding Box Predictions)
- 3.6 交并比 (Intersection Over Union)
- 3.7 非极大值抑制 (Non-Max Suppression)
- 3.8 Anchor Boxes
- 3.9 YOLO算法 (Putting It Together: YOLO Algorithm)
- 3.10 候选区域(选修) (Region Proposals (Optional))
4. 第四周:特殊应用:人脸识别和神经风格转换 (Special Applications: Face Recognition & Neural Style Transfer)
- 4.1 什么是人脸识别? (What is Face Recognition?)
- 4.2 One-Shot学习 (One-Shot Learning)
- 4.3 Siamese网络 (Siamese Network)
- 4.4 Triplet损失 (Triplet Loss)
- 4.5 人脸验证与二分类 (Face Verification and Binary Classification)
- 4.6 什么是神经风格迁移? (What is Neural Style Transfer?)
- 4.7 深度卷积网络学习什么? (What Are Deep ConvNets Learning?)
- 4.8 代价函数 (Cost Function)
- 4.9 内容代价函数 (Content Cost Function)
- 4.10 风格代价函数 (Style Cost Function)
- 4.11 一维到三维推广 (1D and 3D Generalizations of Models)
## 第五门课 序列模型 (Sequence Models)
1. 第一周:循环序列模型 (Recurrent Neural Networks)
- 1.1 为什么选择序列模型? (Why Sequence Models?)
- 1.2 数学符号 (Notation)
- 1.3 循环神经网络模型 (Recurrent Neural Network Model)
- 1.4 通过时间的反向传播 (Backpropagation Through Time)
- 1.5 不同类型的循环神经网络 (Different Types of RNNs)
- 1.6 语言模型和序列生成 (Language Model and Sequence Generation)
- 1.7 对新序列采样 (Sampling Novel Sequences)
- 1.8 循环神经网络的梯度消失 (Vanishing Gradients with RNNs)
- 1.9 GRU单元 (Gated Recurrent Unit (GRU))
- 1.10 长短期记忆 (LSTM (Long Short Term Memory) Unit)
- 1.11 双向循环神经网络 (Bidirectional RNN)
- 1.12 深层循环神经网络 (Deep RNNs)
2. 第二周:自然语言处理与词嵌入 (Natural Language Processing and Word Embeddings)
- 2.1 词汇表征 (Word Representation)
- 2.2 使用词嵌入 (Using Word Embeddings)
- 2.3 词嵌入的特性 (Properties of Word Embeddings)
- 2.4 嵌入矩阵 (Embedding Matrix)
- 2.5 学习词嵌入 (Learning Word Embeddings)
- 2.6 Word2Vec
- 2.7 负采样 (Negative Sampling)
- 2.8 GloVe词向量 (GloVe Word Vectors)
- 2.9 情感分类 (Sentiment Classification)
- 2.10 词嵌入除偏 (Debiasing Word Embeddings)
3. 第三周:序列模型和注意力机制 (Sequence Models & Attention Mechanism)
- 3.1 序列结构的各种序列 (Various Sequence to Sequence Architectures)
- 3.2 选择最可能的句子 (Picking the Most Likely Sentence)
- 3.3 集束搜索 (Beam Search)
- 3.4 改进集束搜索 (Refinements to Beam Search)
- 3.5 集束搜索的误差分析 (Error Analysis in Beam Search)
- 3.6 Bleu得分(选修) (Bleu Score (Optional))
- 3.7 注意力模型直观理解 (Attention Model Intuition)
- 3.8 注意力模型 (Attention Model)
- 3.9 语音识别 (Speech Recognition)
- 3.10 触发字检测 (Trigger Word Detection)
- 3.11 结论和致谢 (Conclusion and Thank You)
## 附件
- 榜样的力量 - 吴恩达采访人工智能大师实录
- 吴恩达采访Geoffery Hinton
- 吴恩达采访Ian Goodfellow
- 吴恩达采访Ruslan Salakhutdinov
- 吴恩达采访Yoshua Bengio
- 吴恩达采访林元庆
- 吴恩达采访Pieter Abbeel
- 吴恩达采访Andrej Karpathy
## 深度学习符号指南(原课程翻译)
1. 基础概念和符号
2. 矩阵乘法
3. 运算和属性
4. 矩阵微积分
5. 符号说明和总结
## CS229 机器学习课程复习材料 - 线性代数
1. 基础概念和符号
2. 矩阵乘法
3. 运算和属性
4. 矩阵微积分
## CS229 机器学习课程复习材料 - 概率论
1. 概率的基本要素
2. 随机变量
3. 两个随机变量
4. 多个随机变量
5. 其他资源
## 机器学习的数学基础(国内教材)
- 高等数学
- 线性代数
- 概率论和数理统计
因视频太大上传不了,需要的可以私信,单独发。