![](https://img-blog.csdnimg.cn/20201014180756913.png?x-oss-process=image/resize,m_fixed,h_64,w_64)
Docker
文章平均质量分 96
小小的太阳
进化后的民工。
展开
-
学习使用cupy库,否则不会 GPU 编程的基本功就 out 了
cuPy 是一个开源的Python库,提供了与 NumPy 类似的多维数组操作接口,但可以在 NVIDIA GPU上 运行。它允许开发者在不显著修改现有 NumPy 代码的情况下,利用 GPU 的并行计算能力来加速数值计算。NumPy兼容性:cuPy提供了与NumPy高度兼容的API,使得熟悉NumPy的用户可以轻松地将其代码迁移到GPU上运行。GPU加速:通过在GPU上执行计算密集型任务,cuPy可以显著加快数值计算的速度,特别是对于大规模数据和复杂操作。内存管理。原创 2024-03-13 17:00:31 · 974 阅读 · 0 评论 -
在 Windows 下的 Docker + NVidia 验证运行 Pytorch GPU 并使用 prettytable 打印漂亮输出
注意这样的代码会有计算结果的差别:`torch.mm(tensor_gpu, tensor_gpu).cpu()` ,它是一个张量的方法,用于将张量从 GPU 内存转移到 CPU 内存。它的作用是将计算结果从 GPU 上移动到 CPU 上,以便在 CPU 上进行后续的操作或访问结果。需要注意的是,频繁地在 GPU 和 CPU 之间移动数据可能会影响性能,因为数据传输是一个相对较慢的操作。可以看到随着 dim_number 的增加,CPU 一直都是递增成正比的,而 GPU 从 2000 开始就是良好的开端。原创 2024-03-12 09:35:29 · 1049 阅读 · 1 评论 -
使用 Docker + NVidia 运行 Pytorch 验证 GPU 是否性能高效
本文主讲体验,方便深入理解为什么 GPU 这么高效,以及相关的对应措施。原创 2024-03-11 16:06:09 · 2324 阅读 · 1 评论 -
Windows 下让 Docker Desktop 关联上 NVidia GPU
前面一篇写了《大数据及机器学习带 GPU 必须干的第一件事》,如果不让容器也来第一件事,怪痒痒的难受。关键环境就在于,如果不解决掉这个问题,一切都是扯淡!原创 2024-03-11 00:00:35 · 6002 阅读 · 3 评论 -
选择困难症之 Docker 镜像带 UBI 关键字
UBI,英文全称:Red Hat Universal Base Images,即红帽通用基础映像。红帽通用基础映像 (UBI) 是符合 OCI 标准、基于容器的操作系统映像,具有可自由再分发的互补运行时语言和软件包。与以前的基础映像一样,它们是由 Red Hat Enterprise Linux (RHEL) 的一部分构建的。您可以在红帽容器目录中找到 UBI 镜像,也可以在 Docker HUB 找到它们。UBI 旨在成为在容器中开发的云原生和 Web 应用程序用例的基础。原创 2024-03-10 15:59:09 · 947 阅读 · 1 评论