无论是多机还是单机训练
将官方的fintune.py文件中的模型导入模块的参数device_map注释掉即可正常运行
- 因为DeepSpeed Zero-3的核心功能就是GPU不足的情况下,CPU来凑
# Load model and tokenizer
model = transformers.AutoModelForCausalLM.from_pretrained(
model_args.model_name_or_path,
config=config,
cache_dir=training_args.cache_dir,
# device_map=device_map, 直接将其注释掉可以直接运行
trust_remote_code=True,
quantization_config=GPTQConfig(
bits=4, disable_exllama=True
)
if training_args.use_lora and lora_args.q_lora
else None,
)