深度学习理论

pyTorch api

1.神经网络基础

2.1 二分分类
2.2 logistic 回归
2.3 logistic 回归损失函数
2.4 梯度下降法
2.5 导数
2.6 更多导数的例子
2.7 计算图
2.8 计算图的导数计算
2.9 logistic 回归中的梯度下降法
2.10 m 个样本的梯度下降
2.11 向量化
2.12 向量化的更多例子
2.13 向量化 logistic 回归
2.14 向量化 logistic 回归的梯度输出
2.18 logistic 损失函数的解释
3.1 神经网络概览
3.2 神经网络表示
3.3 计算神经网络的输出
3.4 多个例子中的向量化
3.5 向量化实现的解释
3.6 激活函数
3.7 为什么需要非线性激活函数?
3.8 激活函数的导数
3.9 神经网络的梯度下降法
3.10 神经网络的梯度下降法-推导
3.11 随机初始化
4.1 深层神经网络
4.2 前向和反向传播
4.3 深层网络中的前向传播
4.4 核对矩阵的维数
4.5 为什么使用深层表示
4.6 搭建深层神经网络块
4.7 参数 VS 超参数

2.神经网络优化

1.1 训练_开发_测试集
1.2 偏差_方差
1.3 机器学习基础
1.4 正则化
1.5 为什么正则化可以减少过拟合?
1.6 Dropout 正则化
1.7 理解 Dropout
1.8 其他正则化方法
1.9 归一化输入
1.10 梯度消失与梯度爆炸
1.11 神经网络的权重初始化
1.12 梯度的数值逼近
1.13 梯度检验
1.14 关于梯度检验实现的注记
2.1 Mini-batch 梯度下降法
2.2 理解 mini-batch 梯度下降法
2.3 指数加权平均
2.4 理解指数加权平均
2.5 指数加权平均的偏差修正
2.6 动量梯度下降法
2.7 RMSprop
2.8 Adam 优化算法
2.9 学习率衰减
3.1 调试处理
3.2 为超参数选择合适的范围
3.3 超参数训练的实践:Pandas VS Caviar
3.5 将 Batch Norm 拟合进神经网络
3.6 Batch Norm 为什么奏效?
3.7 测试时的 Batch Norm
3.8 Softmax 回归
3.9 训练一个 Softmax 分类器

结构化机器学习

1.1 为什么是 ML 策略
1.2 正交化
1.3 单一数字评估指标
1.4 满足和优化指标
1.5 训练_开发_测试集划分
1.6 开发集合测试集的大小
1.7 什么时候该改变开发_测试集和指标
1.8 为什么是人的表现
1.9 可避免偏差
1.10 理解人的表现
1.11 超过人的表现
1.12 改善你的模型的表现
2.1 进行误差分析
2.2 清除标注错误的数据
2.3 快速搭建你的第一个系统,并进行迭代
2.4 在不同的划分上进行训练并测试
2.5 不匹配数据划分的偏差和方差
2.6 定位数据不匹配
2.7 迁移学习
2.8 多任务学习
2.9 什么是端到端的深度学习
2.10 是否要使用端到端的深度学习

卷积神经网络

1.1 计算机视觉
1.2 边缘检测示例
1.3 更多边缘检测内容
1.4 Padding
1.5 卷积步长
1.6 三维卷积
1.7 单层卷积网络
1.8 简单卷积网络示例
1.9 池化层
1.10 卷积神经网络示例
1.11 为什么使用卷积?
2.2 经典网络
2.3 残差网络
2.4 残差网络为什么有用?
2.5 网络中的网络以及 1×1 卷积
2.6 谷歌 Inception 网络简介
2.7 Inception 网络
2.9 迁移学习
2.10 数据扩充
2.11 计算机视觉现状
3.1 目标定位
3.2 特征点检测
3.3 目标检测
3.4 卷积的滑动窗口实现
3.5 Bounding Box预测
3.6 交并比
3.8 Anchor Boxes
3.9 YOLO 算法
3.10 候选区域
4.2 One-Shot 学习
4.3 Siamese 网络
4.4 Triplet 损失
4.5 面部验证与二分类
4.7 什么是深度卷积网络?
4.8 代价函数
4.9 内容代价函数
4.10 风格代价函数
4.11 一维到三维推广

循环神经网络

1.1为什么选择序列模型
1.2数学符号
1.3循环神经网络
1.4通过时间的方向传播
1.5不同类型的循环神经网络
1.6 语言模型和序列生成
1.7 对新序列采样
1.8带有神经网络的梯度消失
1.9 GRU 单元
1.10 长短期记忆(LSTM)
1.11 双向神经网络
1.12 深层循环神经网络
2.1 词汇表征
2.2 使用词嵌入
2.3 词嵌入的特性
2.4 嵌入矩阵
2.5 学习词嵌入
2.6 Word2Vec
2.7 负采样
2.8 GloVe 词向量
2.9 情绪分类
2.10 词嵌入除偏
3.1 基础模型
3.2 选择最可能的句子
3.3 定向搜索
3.4 改进定向搜索
3.5 定向搜索的误差分析
3.10 触发字检测

  1. Backpropagation
  2. Recurrent Neural Networks
  3. Convolutional neural network
  4. DNN

技术大牛教你28天自制一个AlphaGo
深度解读 AlphaGo 算法原理
深度解读 AlphaGo 算法原理

  • 2
    点赞
  • 1
    收藏
    觉得还不错? 一键收藏
  • 0
    评论

“相关推荐”对你有帮助么?

  • 非常没帮助
  • 没帮助
  • 一般
  • 有帮助
  • 非常有帮助
提交
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值