hi, boys and girls,
各位小粉丝们,我回来啦,依旧是你们最爱的小明哥。
最近看TSM源码,其实这个TSM就是拼凑来的,很多代码自己都搞不懂。
按照我常规的思路理解的话,这个workers应该是CPU的核数,j是同一个东西,取得别名,但是gpus指定为True是不行的,设置j为24或者8也是不对的,如果你想用GPU的话。
这就奇怪了,为啥子我两个GPU,j只能设置为1????完全是一脸懵逼的,这个和CPU核数有什么关系吗??
torch.cuda.device_count()
返回的2没有问题啊
最后发现j只能设置为1
按照这个设置的话我两个1080Ti依旧是不行的,与-j 24 不设置gpu是一样的结果
RuntimeError: CUDA out of memory. Tried to allocate 10.34 GiB (GPU 0; 10.92 GiB total capacity; 2.03 GiB already allocated; 8.33 GiB free; 28.23 MiB cached)
真是令人尴尬。
但我不想这么玩了,直接按照作者给的参考一下吧。