如果想要指定vllm serve 运行的1号gpu,不能仅仅在前面加CUDA_VISIBLE_DEVICES=1;
还需要在参数里指定device = cuda,因为不指定的话默认device是auto。
所以运行的命令应该是:
CUDA_VISIBLE_DEVICES={gpu序号} vllm serve {模型路径} --device cuda
如果想要指定vllm serve 运行的1号gpu,不能仅仅在前面加CUDA_VISIBLE_DEVICES=1;
还需要在参数里指定device = cuda,因为不指定的话默认device是auto。
所以运行的命令应该是:
CUDA_VISIBLE_DEVICES={gpu序号} vllm serve {模型路径} --device cuda