在模型部署阶段,考虑到模型大小,通常会做量化,其中一种方式是把模型输出转成int8,这样可以节省存储空间。
下面是转成int8的代码
def normalize8(I: np.ndarray):
mx = max(np.abs(I.max()), np.abs(I.min()))
mn = -mx
I = np.round(((I - mn) / (2 * mx)) * 255) - 128
return I.astype(np.int8)
在模型部署阶段,考虑到模型大小,通常会做量化,其中一种方式是把模型输出转成int8,这样可以节省存储空间。
下面是转成int8的代码
def normalize8(I: np.ndarray):
mx = max(np.abs(I.max()), np.abs(I.min()))
mn = -mx
I = np.round(((I - mn) / (2 * mx)) * 255) - 128
return I.astype(np.int8)