前面实现了DRRN所需的各个层的MKL-DNN代码模块,接下来就是用各种模块来搭积木了。
对《纯C++超分辨率重建DRRN --改编》的程序改写的时候要注意几点
1. 原来程序里的vl_BatchNorm+vl_Scale+vl_ReLU, 现在可以用一个BatchNorm来代替
2. 原来的vl_nnconv, 现在要改成Reorder+Convolution+Reorder来获得最大性能提升
3. 每一个残差块b输出的数据要和首单位的卷积数据做一个加法,在这里可以给残差块b的最后一个reorder加一个加法的post-ops来实现,这样也可以提升性能
4. DRRN一共有9个残差块组,每个残差块组用到的weights/bias其实是一样的,所以我们在第一组残差块里reorder好了weights之后就可以保存起来,后面的残差块就不用再reorder weights数据了
5. 因为有首单位,2x9个残差块组,尾单位 一共20层操作,每层里还有很多组计算模块,搭的时候要小心再小心,一旦出错了很难Debug。(早知道就应该从FSRCNN入手了 ... 那个模型才7层)
6. 中间2x9个残差块组里有大量的重复的内存对象,所以在第一组残差块分配好内存对象以后,后面的残差组计算要尽量的复用,不用每次都重新分配内存。我一开始没注意这个问题,第一次运行的时候12G的内存一下就消耗光了,windows直接假死...
原始纯C++超分辨率重建DRRN --改编代码流程和mkl-dnn版的代码流程流程对比如下
改写好之后赶紧运行一下
看一下运行时间
算上1.203秒的模型加载时间,一次重建图像的过程只需要20.979秒。相比原来纯C++版本的一次重建需要几个小时性能提升巨大 :)
看来Intel的MKL-DNN还是有很多潜力可挖的 :)
最后代码奉上,写的很乱,仅供参考
https://github.com/tisandman555/mkldnn_study/blob/master/drrn_mkldnn.cpp