(31)model.load_state_dict(state_dict, strict=False)
strict=False时,检查key是否一致,不一致不加载权重。如果只是改了最后全连接层个数,设置为False会报错,因为加载模型的key的名字是一样的,但是shape不一样。
(32)张量的操作:拼接、切分、索引和变换
- torch.cat()、torch.stack()
m = torch.randn((2, 3, 4))
m = torch.stack((m, m), 0) # torch.Size([2, 3, 4]) -> torch.Size([2, 2, 3, 4])
m = torch.cat((m, m), 0) # torch.Size([2, 3, 4]) -> torch.Size([4, 3, 4])
- torch.chunk()、torch.split()
- torch.index_select()、torch.masked_select()
- torch.reshape()、torch.transpose()、torch.squeeze()
(33)opencv读图后处理
image = cv2.imread("flower.jpg")
image = cv2.resize(image,(224,224))
input_tensor = torch.tensor(image).permute(2,0,1).unsqueeze(0).float()/225.0
(34)性能分析Profiler
PyTorch 模型性能分析——PyTorch Profiler
(35)使用GPU的三种方式
b = torch.tensor([1., 2.], device='cuda:0')
b = torch.tensor([1., 2.]).cuda()
b = torch.tensor([1., 2.]).to(device='cuda:0')
(36)关于CHW和HWC的数据格式
- CHW: 对于GPU更优。使用CUDA做infer或者后处理的话,由于硬件DRAM的原因,CHW可以保证线程是以coalescing的方式读取。具体性能对比参考Programming_Massively_Parallel_Processors
- HWC: 对于CPU更优。使用CPU进行处理的时候,HWC格式可以保证单个线程处理的数据具有连续的内存地址。而CPU缓存具有空间局部性,这样能极大的提升效率。
- 综上:如果后处理使用CPU进行decode,建议在onnx输出HWC格式,如果使用GPU进行decode,建议在onnx输出CHW格式。