![](https://img-blog.csdnimg.cn/20201014180756928.png?x-oss-process=image/resize,m_fixed,h_64,w_64)
pytorch
桃子好好吃啊
日常学习笔记,请大家多多指正(●'◡'●)
展开
-
Pytorch多显卡调用 Dataparallel
1. 如何使模型在多个卡上进行运算Model = VGG(args)Device = torch.device('cpu' if use_cpu else 'cuda') # 明确是使用cpu还是cudaIf use_more_gpu: Model = torch.nn.Dataparallel( Model, [0,1,2,3]) # [0,1,2,3] 是可使用的gpu id2. Dataparallel的原理① 将模型的参数拷贝至多个显卡②将数据按照batch平均分给各原创 2020-11-23 15:14:01 · 779 阅读 · 0 评论 -
为什么Pytorch死活要用第0块显卡--我和pytorch的恩怨情仇
为什么Pytorch一定要用“cuda:0”问题原因解决方法问题在使用Pytorch进行训练的时候,有一个奇怪的问题是,无论怎么在代码里指定显卡,最终运行时始终会在第0块显卡上占用少量的内存。本来是个无伤大雅的问题,但是一旦0号显卡被自己或者别人占满了,就很抓狂原创 2019-07-18 17:26:54 · 13140 阅读 · 11 评论