python系列10:使用GPU加速计算

本文介绍如何使用GPU加速Python中的科学计算,涵盖Numba、CuPy、PyTorch等库的使用方法,以及GPU版本的Scikit-learn库。文章详细讲解了从CUDA安装到深度学习框架的GPU应用,适合希望提升数据处理速度的科研人员和开发者。
摘要由CSDN通过智能技术生成

https://github.com/jkaardal/pyipm
https://www.anaconda.com/blog/developer-blog/getting-started-with-gpu-computing-in-anaconda/
GoAI:http://gpuopenanalytics.com/,

PyCuda、PyOpencl等,比较底层的库。
pytorch、mxnet、theano等深度学习框架,封装得更加好,实现的主要都是梯度算法。
Scikit-gpu:经典的机器学习库GPU版本
pyGDF:类似pandas,只支持linux,cuda10版本
pyculib:类似numpy
numba:底层GPU数组操作

首先安装cuda,使用nvcc --version测试是否安装成功
然后安装cudnn

本文持续更新中。

1. Numba

Numba是一个开源的JIT编译器,可以将python或者numpy 的一些数学计算编译为运算速度极快的机器码,从而大幅提升程序的运算效率。它使用通用的LLVM编译库,不仅可以编译用于CPU执行的代码,达到和C相比拟的速度,同时还可以调用GPU库(如NVIDIA的CUDA和AMD的ROCs等)来实现GPU加速,所左右这些,都可以简单的利用python中的装饰器来实现。
pip install numba安装,然后用numba -s查看安装情况。
在这里插入图片描述

2. CuPy

在实际使用中,我们一般将CPU代码中互相不依赖的的for循环适当替换成CUDA代码。
有多种方法可以使用GPU,比如cupy,numba,以及深度学习的库等。总的来说,只有当数据量到达一定数量级时,才会有提升。这个例子是1000万。
在这里插入图片描述

3. pytorch

去官网安装GPU版本的pytorch

# 测试cuda是否可用
print(torch.cuda.isavailable())
# 创建一个CPU的张量
x = torch.Tensor(3,4).to("cuda")
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值