GPU与CUDA(个人学习笔记)

主要参考资料:
B站视频《CUDA Python 科普之夜 | 手把手教你写GPU加速代码》
Github链接: https://github.com/sangyy/CUDA_Python

CPU与GPU比较

之前有听过一个比喻说,CPU里面的核心像是一个博士生,能完成高级运算,算得也快,但是所有事都得极少的几个人来完成;GPU像是有几千甚至上万的小朋友在里面,虽然每个小朋友能力不强,但是他们也只需要完成加减法计算就可以了。

抽象出来就是一个是串行计算,一个是并行计算,都有各自的应用领域。

底下两个图是另一种比喻:
在这里插入图片描述
在这里插入图片描述
上面说地比较抽象,拿GA100举例,它包含了:
(1)8192 FP32 CUDA Cores(用于计算的核心)
(2)128个SM(SM指stream multiprocessor,即流多处理器,可以方便一块线程之间的协作)
(3)每个SM包含64个FP32 CUDA Core,4个第三代Tensor Core

这是GA的整体硬件图
在这里插入图片描述
SM(流多处理器)框图
在这里插入图片描述

CPU+GPU工作流

上面说了GPU只是一个协处理器,没错,它就是打杂的!

因此一般它是配合CPU一起工作的,可以简单概括成三个过程。
(1)将输入数据从CPU内存复制到GPU显存
(2)在GPU芯片上缓存数据,加载GPU程序并执行
(3)将计算结果从GPU显存复制到CPU内存中
在这里插入图片描述

这里有两个术语,Host是指CPU和内存,Device是指GPU和显存。

GPU的最小运行单位是Thread线程,多个Thread线程组成一个Block块,多个Block块组成一个Grid网格。
在这里插入图片描述

CUDA介绍

GPU只是个协处理器,跑不了像WIindows、Linux这样的操作系统,但是它有自己的运行框架CUDA(Compute Unified Device Architecture)。

CUDA框架包含开发库、运行期环境(它的系统)和硬件驱动。

因此CUDA可以使用C/C++或者其他高级语言像Python、Java来编程。
其中CUDA C/C++有下面几个特性:
(1)基于C/C++
(2)支持异构编程的扩展方法
(3)简单明了的APIs,能够轻松的管理存储系统

CUDA、cuDNN和Pytorch三个框架的关系

CUDA是英伟达的一个计算架构,最终留出的API接口也主要是图像、矩阵、向量的这类的数学运算。

cuDNN是对CUDA的封装,是英伟达提供的一个深度学习的库,例如向前和向后卷积,池化,规范化和激活层。

PyTorch是一个深度学习框架,可以调用CUDA和CUDNN来加速。

  • 0
    点赞
  • 1
    收藏
    觉得还不错? 一键收藏
  • 1
    评论

“相关推荐”对你有帮助么?

  • 非常没帮助
  • 没帮助
  • 一般
  • 有帮助
  • 非常有帮助
提交
评论 1
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值