【摘 要】为了应对以云服务器为中心的深度学习模型存在实时性较差的缺点,提出一种基于边缘计算的按需优化的深度学习模型,模型基于通信带宽和延时限制,自适应地将深度学习模型分配到终端设备和边缘服务器上并进行裁剪,从而最大化计算精度。仿真实验结果表明,相比仅仅将深度学习模型部署在终端设备或边缘服务器上,该算法具有更强的计算优势。
【关键词】深度学习;边缘计算;延时限制
0 引言
深度学习技术在近年来受到广泛重视,并被应用到众多领域。为了满足深度学习所需要的巨量计算资源,传统的模式是将深度神经网络(DNN, Deep Neural Network)部署在云计算中心,而移动设备将产生的数据发送到云端去计算,然后仅获得计算结果。这种模式当网络带宽有限时会产生较大的延迟,从而影响实时性。当前解决方法是采用边缘计算模式[1-8],即将云计算能力下沉到网络的边缘,在距离终端设备更近的边缘设备上部署深度学习模型进行计算和通信,从而能够更好地满足实时计算需求。边缘智能模型[9-13]尽管拥有超越云智能的众多优点,然而研究表明其对于可用的通信带宽仍然非常敏感。文献[14]中的实验表明当带宽从1 Mbps下降到50 kbps时,边缘服务器上DNN的延迟从0.123 s上升到2.317 s。
针对上述问题,本文基于作者前期已有的工作[15]提出一种基于边缘计算的按需优化的深度学习模型。主要工作包括:(1)分别使用一个Xilinx Zynq 7000S系统和一台PC系统来仿真移动设备和边缘服务器,运用经典的VGG-16深度学习模型进行cifar-10数据集上的图像分类;(2)给出一个优化算法