![](https://img-blog.csdnimg.cn/20201014180756780.png?x-oss-process=image/resize,m_fixed,h_64,w_64)
pytorch
文章平均质量分 89
饮尽夏日
这个作者很懒,什么都没留下…
展开
-
Pytorch03-BuildModel&Autograd&Optimization&Save&Load Model
属性设置为True的计算图的叶节点的grad属性。此外,出于性能原因,我们只能在给定的图上使用一次后向来执行梯度计算。然而,有些情况下我们不需要这样做,例如,当我们训练完模型而只想将其应用到一些输入数据时,即我们只想通过网络进行前向计算。在每一次迭代中,模型都会对输出进行猜测,计算猜测的误差(损失),收集误差相对于其参数的导数,并使用梯度下降法优化这些参数。每个神经元都是一个小的计算单元,执行简单的计算来共同解决问题。现在我们有了模型和数据,是时候通过优化数据参数来训练、验证和测试我们的模型了。原创 2024-02-26 20:58:14 · 845 阅读 · 0 评论 -
Pytorch02-Datasets&DataLoaders
自定义 Dataset 类必须实现三个函数:__init__、__len__ 和 __getitem__ 三个函数。看看这个实现;FashionMNIST 图像存储在img_dir目录中,它们的标签分别存储在 CSV 文件中。getitem函数根据给定的索引 idx 从数据集中加载并返回一个样本。原创 2024-01-29 18:05:00 · 1933 阅读 · 0 评论 -
Pytorch01-Tensor
GPU通常用于图形或神经网络的高强度计算(我们稍后将在神经网络单元中了解更多信息)。默认情况下,张量是在CPU上创建的。torch.stack是一个相关的张量连接选项,它将一系列张量沿着一个新的维度连接起来。注意:就地操作可以节省一些内存,但在计算导数时可能会出现问题,因为它们会立即丢失历史记录。在下面的函数中,它决定了输出tensor的维度。CPU 上的张量和 NumPy 阵列可以共享底层内存位置,改变其中一个就会改变另一个。这些操作中的每一个都可以在GPU上运行(通常比在CPU上更高的速度)。原创 2024-01-29 16:13:10 · 296 阅读 · 0 评论