【深度学习】【NLP】NLP课件整理 第一章(1):神经网络简介,pytorch代码+简单项目,pytorch手写数字识别

文档:1.1.1 深度学习的介绍.note

  1. 深度学习的概念
  2. 深度学习和机器学习的区别
    2.1 区别1 :特征提取
    2.2 区别2:数据量
  3. 深度学习的应用场景
  4. 常见的深度学习框架

文档:1.1.2 神经网络的介绍.note

  1. 人工神经网络的概念
  2. 神经元的概念
  3. 感知机
  4. 单层神经网络
  5. 多层神经网络
  6. 激活函数
  7. 神经网络示例

文档:1.2.1 Pytorch的安装.note

  1. Pytorch的介绍
  2. Pytorch的版本
  3. Pytorch的安装

文档:1.2.2 Pytorch中数据-张量.note

  1. 张量Tensor
  2. Pytorch中创建张量
  3. Pytorch中tensor的属性
  4. tensor的修改
  5. CUDA Tensor
  6. tensor的常用数学运算
  7. Variable

文档:1.2.3 梯度下降和反向传播.note

  1. 梯度是什么?
  2. 偏导的计算
    2.1 常见的导数计算
    2.2 多元函数求偏导
  3. 反向传播算法
    3.1 计算图和反向传播
    3.2 神经网络中的反向传播

文档:1.2.4 Pytorch自动求导.note

  1. 前向计算
  2. 梯度计算

文档:1.2.5 Pytorch完成线性回归.note

  1. 线性回归实现

文档:1.2.6 Pytorch基础模型组件.note

  1. Pytorch完成模型常用API
    1.1 nn.Module
    1.2 nn.Sequential
    1.3 优化器类
    1.4 损失函数

文档:1.2.7 Pytorch基础模型.note

  1. 使用pytorch模型组件把线性回归完整代码
  2. 在GPU上运行代码
  3. 常见的优化算法介绍
    3.1 梯度下降算法(batch gradient descent BGD)
    3.2 随机梯度下降法 (Stochastic gradient descent SGD)
    3.3 小批量梯度下降 (Mini-batch gradient descent MBGD)
    3.4 动量法(Momentum)
    3.5 AdaGrad
    3.6 RMSProp
    3.7 Adam
    3.8 效果演示:
  4. 深度学习避免过拟合/加速训练
    4.1 Dropout
    4.2 Batch Normalization

文档:1.2.8 Pytorch中的数据加载.note

  1. 模型中使用数据加载器的目的
  2. 数据集类
    2.1 Dataset基类介绍
    2.2 数据加载案例
  3. 迭代数据集
  4. pytorch自带的数据集
    4.1 torchversion.datasets
    4.2 MNIST数据集的介绍

文档:1.2.9 使用Pytorch实现手写数字识别.note

  1. 思路和流程分析
  2. 准备训练集和测试集
    2.1 torchvision.transforms的图形数据处理方法
    2.2 准备MNIST数据集的Dataset和DataLoader
  3. 构建模型
    3.1 激活函数的使用
    3.2 模型中数据的形状(【添加形状变化图形】)
    3.3 模型的损失函数
  4. 模型的训练
  5. 模型的保存和加载
  6. 模型的评估
  7. 完整的代码如下
  • 0
    点赞
  • 1
    收藏
    觉得还不错? 一键收藏
  • 0
    评论
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值