一、前言
当将机器学习应用到敏感数据时,必须在准确性、信息安全和计算复杂度之间寻求平衡。将全同态加密与神经网络(FHE-NN)结合是最近比较热门的一个解决方案,在保护数据不被泄露的同时提供模型的推理服务。LoLa [1] 为较早的FHE-NN 方案,其基本思想是使用密文打包(ciphertext packing)方法将神经网络的节点多个值表示为相同密文。在LoLa 中,卷积层可以表示为将卷积核展平为一维向量而进行线性运算,或者表示为大权重矩阵与加密向量的乘积。然后,这些处理对于高维度输入会导致大量同态计算的问题。
向量内积
向量内积是神经网络计算中核心运算操作,其运算等同于乘法-累加计算。如果是在FHE 密文态下完成运算,则仅需要 1 1 1次同态乘法