Pytorch学习task02_待补

本文介绍了深度学习中处理大规模数据的策略,包括批量训练和GPU利用。深度学习训练过程涉及数据按批加载到GPU进行计算,并通过反向传播更新网络参数。此外,还讨论了PyTorch中数据读入的基本步骤,如使用Dataset和DataLoader进行数据预处理和迭代读取。配置方面,提到了超参数如batch_size、学习率和GPU设置。
摘要由CSDN通过智能技术生成

第三章

3.1 思考: 完成深度学习的必要部分

知识点1. 深度学习的简单定义

由于深度学习所需的样本量很大, 一次加载全部数据运行可能会超出内存容量而无法实现; 同时还有批(batch)训练等提高模型表现的策略, 需要每次训练读取固定数量的样本送入模型中训练.

知识点2. 深度学习中训练与验证过程的特点

深度学习中训练和验证过程最大的特点在于读入数据是按批,每次读入一个批次的数据,放入GPU中训练,然后将损失函数反向传播回网络最前面的曾, 同时使用优化器调整网络参数.这里会涉及到各个模块配合的问题.训练/验证后还需要根据设定好的指标计算模型表现.

3.2 基本配置

知识点1. 深度学习任务一般意义下的几个超参数

  • batch_size
  • 初始学习率
  • 训练次数(max_epochs)
  • GPU配置

知识点2. GPU设置的两种常见的方式

  • 方案1: 使用os.environ, 这种情况如果使用GPU不需要设置
os.environ['CUDA_VISIBLE_DEVICES'] = '0.1'
  • 方案2: 使用"device", 后续对要使用GPU的变量用.to(device)即可
device = torch.device("cuda:1" if torch.cuda.is_available() else "cpu")

3.3 数据读入

知识点1. Pytorch中数据读入方式简介

PyTorch数据读入是通过Dataset + DataLoader的方式完成的, Dataset定义好数据的格式和数据变换形式, DataLoader用iterative的方式不断读入批次数据.

待补

  • 0
    点赞
  • 0
    收藏
    觉得还不错? 一键收藏
  • 0
    评论
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值