这里写自定义目录标题
模型调试记录
1.base_base_o
不使用slim策略训练,不使用slim策略导出的最普通模型,耗时是3500ms。
2.base_base_set_o
在1的条件下追加了PaddleLite的Opt工具进行8bit优化,耗时几乎没变化。
3.base_qat_o
不使用Slim策略训练,使用8bit量化导出模型,耗时减少了一半。
没有正确识别目标。
4.base_qat_set_o
在3的条件下追加opt,耗时几乎没变化。
没有正确识别目标。
5.qat_base_o
使用8bitQAT进行训练,但是不使用Slim策略导出模型,耗时回到了3500ms。
没有正确识别目标。
6.qat_base_set_o
没什么可说的,同上。
7.qat_qat_o
使用8bitQAT量化训练,使用8bit量化导出模型,耗时同3比未见减少。
8.qat_qat_set_o
同上
结论
1.只有在训练时的Slim策略与模型导出时的Slim策略相同时,得到的模型才可以得到正确的结果。
2.无论是在模型导出环节还是在Opt环节中加入8bit量化,都会使模型变小,但模型的大小并不能决定预测的速度。
3.被我们寄予厚望的Opt工具效果甚微,甚至是没有效果,也有可能是使用方法出了问题。