机器学习
文章平均质量分 96
小小的太阳
进化后的民工。
展开
-
跟着官方走,一步一步来 Pytorch —— 001
大多数机器学习工作流都涉及处理数据、创建模型、优化模型等参数,并保存经过训练的模型。本教程将向您介绍一个在 PyTorch 中实现完整的 ML 工作流程,用于了解有关这些概念中的每一个的更多信息。官方使用了 FashionMNIST 数据集来训练一个神经网络,该神经网络预测输入图像是否属于以下类别之一:T恤/上衣,裤子,套头衫,连衣裙,外套,凉鞋,衬衫,运动鞋,包,或踝靴。注意:需要您基本熟悉 Python 和了解深度学习概念。原创 2024-03-14 12:17:26 · 819 阅读 · 1 评论 -
学习使用cupy库,否则不会 GPU 编程的基本功就 out 了
cuPy 是一个开源的Python库,提供了与 NumPy 类似的多维数组操作接口,但可以在 NVIDIA GPU上 运行。它允许开发者在不显著修改现有 NumPy 代码的情况下,利用 GPU 的并行计算能力来加速数值计算。NumPy兼容性:cuPy提供了与NumPy高度兼容的API,使得熟悉NumPy的用户可以轻松地将其代码迁移到GPU上运行。GPU加速:通过在GPU上执行计算密集型任务,cuPy可以显著加快数值计算的速度,特别是对于大规模数据和复杂操作。内存管理。原创 2024-03-13 17:00:31 · 994 阅读 · 0 评论 -
在 Windows 下的 Docker + NVidia 验证运行 Pytorch GPU 并使用 prettytable 打印漂亮输出
注意这样的代码会有计算结果的差别:`torch.mm(tensor_gpu, tensor_gpu).cpu()` ,它是一个张量的方法,用于将张量从 GPU 内存转移到 CPU 内存。它的作用是将计算结果从 GPU 上移动到 CPU 上,以便在 CPU 上进行后续的操作或访问结果。需要注意的是,频繁地在 GPU 和 CPU 之间移动数据可能会影响性能,因为数据传输是一个相对较慢的操作。可以看到随着 dim_number 的增加,CPU 一直都是递增成正比的,而 GPU 从 2000 开始就是良好的开端。原创 2024-03-12 09:35:29 · 1134 阅读 · 1 评论 -
使用 Docker + NVidia 运行 Pytorch 验证 GPU 是否性能高效
本文主讲体验,方便深入理解为什么 GPU 这么高效,以及相关的对应措施。原创 2024-03-11 16:06:09 · 2527 阅读 · 1 评论 -
使用 Docker + NVidia 运行 Pytorch 验证 GPU 是否真的有效
继续带 GPU 干活之旅,完成先决条件的理解与深入。原创 2024-03-11 12:52:13 · 2398 阅读 · 1 评论 -
Windows 下让 Docker Desktop 关联上 NVidia GPU
前面一篇写了《大数据及机器学习带 GPU 必须干的第一件事》,如果不让容器也来第一件事,怪痒痒的难受。关键环境就在于,如果不解决掉这个问题,一切都是扯淡!原创 2024-03-11 00:00:35 · 8669 阅读 · 7 评论 -
大数据及机器学习带 GPU 必须干的第一件事
首先要明白什么是 smi?它的英文全称是 System Management Interface。所以我们可以通俗点叫它 NVIDIA 系统管理接口或界面 (nvidia-smi) ,它是一个命令行实用程序,基于 NVIDIA 管理库 (NVML) ,旨在帮助管理和监控 NVIDIA GPU 设备。所以如果你没有支持 nvidia-smi,那么所有 N卡相关的 GPU 都基本不能使用。那 NVML 又是什么?它的英文全称是 NVIDIA Management Library。原创 2024-03-10 18:25:25 · 1424 阅读 · 1 评论