吴恩达(Andrew Ng)深度学习课程笔记目录

第一门课程中,你将学习如何建立神经网络(包含一个深度神经网络),以及如何在数据上面训练他们。在这门课程的结尾,你将用一个深度神经网络进行辨认猫。
接下来在第二门课中,我们将使用三周时间。你将进行深度学习方面的实践,学习严密地构建神经网络,如何真正让它表现良好,因此你将要学习超参数调整、正则化、诊断偏差和方差以及一些高级优化算法,比如Momentum和Adam算法,犹如黑魔法一样根据你建立网络的方式。第二门课只有三周学习时间。
在第三门课中,我们将使用两周时间来学习如何结构化你的机器学习工程。事实证明,构建机器学习系统的策略改变了深度学习的错误。第三课的资料是相对比较独特的,我将和你分享。我们了解到的所有的热门领域的建立并且改良许多的深度学习问题。这些当今热门的资料,绝大部分大学在他们的深度学习课堂上面里面不会教的,我认为它会提供你帮助,让深度学习系统工作的更好。
在第四门课程中,我们将会提到卷积神经网络(CNN(s)),它经常被用于图像领域,你将会在第四门课程中学到如何搭建这样的模型。
最后在第五门课中,你将会学习到序列模型,以及如何将它们应用于自然语言处理,以及其它问题。序列模型包括的模型有循环神经网络(RNN)、全称是长短期记忆网络(LSTM)。你将在课程五中了解其中的时期是什么含义,并且有能力应用到自然语言处理(NLP)问题。

课时周次内容
第一课week1
1.1什么是神经网络
1.2用神经网络进行监督学习
1.3为什么深度学习会兴起
第一课week2
1 二分分类
2 logistic回归
3 logistic回归损失函数
4 梯度下降法
5 导数
6 计算图
7 使用计算图求导
8 logistic回归中的梯度下降法
9 m个样本的梯度下降法
10 向量化
11 向量化的更多例子
12 向量化logistic回归
13 向量化logistic回归的梯度输出
14 python中的广播
15(选修)logistic损失承数的解释
第一课week3
1 神经网络概述
2 神经网络的表示
3 计算神经网络的输出
4 多个样本的向量化
5 向量化实现的解释
6 激活函数
7 为什么需要非线性激活函数
8 激活函数的导数
9 神经网络的梯度下降法
10 (选修)直观理解反向传播
11 随机初始化
第一课week41 深层神经网络
2 前向和反向传播
3 深层网络中的前向传播
4 核对矩阵的维数
5 为什么使用深层表示
6 搭建深层神经网络块
7 参数vs超参数
8 这和大脑有什么关系
第二课week1-week31训练-验证-测试集
2 偏差方差
3 机器学习基础
4 正则化
5 为什么正则化可以减少过拟合
6 dropout正则化
7 理解dropout
8 其他正则化方法
9 归一化输入
10 梯度消失与梯度爆炸
11 神经网络的权重初始化
12 梯度数值逼近
13 梯度检验
14 关于梯度检验实现的注记
2.1 Mini-batch梯度下降法
2.2理解Mini-batch梯度下降法
2.3指数加权平均
2.4理解指数加权平均
2.5指数加权平均的偏差修正
2.6动量梯度下降
2.7 RMSprop
2.8 Adam优化算法
2.9学习率衰减
2.10局部最优问题
3.1调试处理
3.2为超参数选择合适的范围
3.3超参数训练的实践pandas vs Caviar
3.4正则化网络的激活函数
3.5将Batch Norm拟合进神经网络
3.6 Batch Norm为什么奏效
3.7测试时的Batch Norm
3.8 Softmax回归
3.9训练一个Softmax分类器
3.10深度学习框架
第三课week1-week21为什么是ML策略
2正交化
3单一数字评估指标
4满足和优化指标
5训练-开发-测试集的划分
6训练集开发集测试集的大小
7什么时候改变开发和测试集和指标
8为什么是人的表现
9可避免偏差
10理解人的表现
11超过人的表现
12改善你的模型的表现
2.1进行误差分析
2.2清除标记错误的数据
2.3快速搭建你的第一个系统并进行迭代
2.4在不同的划分上进行训练并测试
2.5不匹配数据划分的偏差和方差
2.6解决数据不匹配
2.7迁移学习
2.8多任务学习
2.9什么是端到端的深度学习
2.10是否要使用端到端的深度学习
第四课week11 介绍
2 卷积运算
3 其他的边缘检测
4 padding
5 卷积步长
6 三维卷积
7 单层卷积网络
8 简单的卷积网络示例
9 池化层
10 卷积神经网络示例
11 为什么使用卷积
第四课week21 为什么要进行实例探究
2 经典网络
3 残差网络
4 残差网络为什么有用
5 网络中的网络以及1×1的卷积
6 谷歌Inception网络简介
7 Inception网络
8 使用开源的实现方案
9 迁移学习
10 数据扩充/数据增强
11 计算机视觉现状
第四课week31 目标定位
2 特征点检测
3 目标检测
4 卷积的滑动窗口实现
5 Bounding Box预测
6 交并比
7 非极大值抑制
8 Anchor box
9 YOLO算法
10 候选区域(选修)
第四课week41 什么是人脸识别
2 One-shot学习
3 Siamese网络
4 Triplet损失
5 面部验证与二分类
6 什么是神经风格迁移
7 什么是深度卷积网络
8 代价函数
9 内容代价函数
10 风格代价函数
11 一维到三维的推广
第五课week11.1为什么选择序列模型
1.2数学符号
1.3循环神经网络
1.4通过时间的反向传播
1.5不同类型的循环神经网络
1.6语言模型和序列生成
1.7新序列采样
1.8带有神经网络的梯度消失
1.9 GRU单元
1.10长短期记忆
1.11双向神经网络
1.12深层循环神经网络
第五课week22.1词汇表征
2.2使用词嵌入
2.3词嵌入的特性
2.4嵌入矩阵
2.5学习词嵌入
2.6 Word2Vec
2.7负采样
2.8 GloVe词向量
2.9情绪分类
2.10词嵌入除偏
  • 1
    点赞
  • 12
    收藏
    觉得还不错? 一键收藏
  • 打赏
    打赏
  • 2
    评论

“相关推荐”对你有帮助么?

  • 非常没帮助
  • 没帮助
  • 一般
  • 有帮助
  • 非常有帮助
提交
评论 2
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包

打赏作者

开始King

你的鼓励将是我创作的最大动力

¥1 ¥2 ¥4 ¥6 ¥10 ¥20
扫码支付:¥1
获取中
扫码支付

您的余额不足,请更换扫码支付或充值

打赏作者

实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值