转载: PyTorch 深度剖析:如何使用模型并行技术 (Model Parallel)_商业新知 当模型太大,一个GPU无法容纳模型时,可以将模型拆分成几个部分,分别在不同GPU上运行,通过GPU之前的数据复制来运行这个模型。