- 深度学习的概念
- 深度学习和机器学习的区别
2.1 区别1 :特征提取
2.2 区别2:数据量 - 深度学习的应用场景
- 常见的深度学习框架
- 人工神经网络的概念
- 神经元的概念
- 感知机
- 单层神经网络
- 多层神经网络
- 激活函数
- 神经网络示例
- Pytorch的介绍
- Pytorch的版本
- Pytorch的安装
- 张量Tensor
- Pytorch中创建张量
- Pytorch中tensor的属性
- tensor的修改
- CUDA Tensor
- tensor的常用数学运算
- Variable
- 梯度是什么?
- 偏导的计算
2.1 常见的导数计算
2.2 多元函数求偏导 - 反向传播算法
3.1 计算图和反向传播
3.2 神经网络中的反向传播
- 前向计算
- 梯度计算
- 线性回归实现
- Pytorch完成模型常用API
1.1 nn.Module
1.2 nn.Sequential
1.3 优化器类
1.4 损失函数
- 使用pytorch模型组件把线性回归完整代码
- 在GPU上运行代码
- 常见的优化算法介绍
3.1 梯度下降算法(batch gradient descent BGD)
3.2 随机梯度下降法 (Stochastic gradient descent SGD)
3.3 小批量梯度下降 (Mini-batch gradient descent MBGD)
3.4 动量法(Momentum)
3.5 AdaGrad
3.6 RMSProp
3.7 Adam
3.8 效果演示: - 深度学习避免过拟合/加速训练
4.1 Dropout
4.2 Batch Normalization
- 模型中使用数据加载器的目的
- 数据集类
2.1 Dataset基类介绍
2.2 数据加载案例 - 迭代数据集
- pytorch自带的数据集
4.1 torchversion.datasets
4.2 MNIST数据集的介绍
文档:1.2.9 使用Pytorch实现手写数字识别.note
- 思路和流程分析
- 准备训练集和测试集
2.1 torchvision.transforms的图形数据处理方法
2.2 准备MNIST数据集的Dataset和DataLoader - 构建模型
3.1 激活函数的使用
3.2 模型中数据的形状(【添加形状变化图形】)
3.3 模型的损失函数 - 模型的训练
- 模型的保存和加载
- 模型的评估
- 完整的代码如下