人工智能 AI项目 模型硬件优化简记

记录一个错误

model.load_state_dict(torch.load(origin_model_path))

在这里插入图片描述

报错信息:
RuntimeError: Attempting to deserialize object on a CUDA device but torch.cuda.is_available() is False. If you are running on a CPU-only machine, please use torch.load with map_location=torch.device(‘cpu’) to map your storages to the CPU.

修改方法:
增加map_location

model.load_state_dict(torch.load(origin_model_path, 
                                 map_location=lambda storage, loc:storage))
# 或者下面这种形式
model.load_state_dict(torch.load(origin_model_path, 
                                 map_location=torch.device('cpu'))

GPU训练 + CPU部署

# 将在GPU上训练好的模型加载到CPU上
model.load_state_dict(torch.load(origin_model_path, map_location=lambda storage, loc:storage))

CPU优化之模型量化

Quantizing a network means converting it to use a reduced precision integer representation for the weights and/or activations. This saves on model size and allows the use of higher throughput math operations on your CPU or GPU.

量化网络意味着将其转换为使用权重和/或激活的精度降低的整数表示。这节省了模型大小,并允许在CPU或GPU上使用更高吞吐量的数学运算。

model.load_state_dict(torch.load(origin_model_path, map_location=config.DEVICE))

# 使用torch.quantization.quantize_dynamic获得动态量化的模型
# 量化的网络层为所有的nn.Linear的权重,使其成为int8
quantized_model = torch.quantization.quantize_dynamic(model, {torch.nn.Linear}, dtype=torch.qint8)

print_size_of_model(model)
print_size_of_model(quantized_model)

Size (MB): 159.766928
Size (MB): 120.379636

  • 0
    点赞
  • 0
    收藏
    觉得还不错? 一键收藏
  • 打赏
    打赏
  • 0
    评论
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包

打赏作者

鹏晓星

你的鼓励将是我创作的最大动力

¥1 ¥2 ¥4 ¥6 ¥10 ¥20
扫码支付:¥1
获取中
扫码支付

您的余额不足,请更换扫码支付或充值

打赏作者

实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值