Bootstrap

论文泛读《LPFHE: Low-Complexity Polynomial CNNs for Secure Inference over FHE》


1、摘要

Machine learning as a service (MLaaS) 在客户中越来越受欢迎。为了解决 MLaaS 中的隐私问题,引入了 FHE 来保护客户端的数据。
 然而,FHE 不能直接评估 卷积神经网络 (CNNs) 中的非算数激活函数。现有的一些工作是使用 不同程度的多项式 来替代 激活函数,获得 FHE 友好的 CNNs。缺点是,需要面对 精度损失延迟增加 之间的平衡问题。

该论文提出了一个 LPFHE 框架,使用 低复杂度多项式 精确地近似 CNNs 中的 基本 ReLU函数LPFHE 支持找到 每个 ReLU 函数最优逼近域多项式
 通过将 分段加权最小二乘算法算法Remez 算法 相结合,LPFHE 能够生成具有 高推理进度的低复杂度多项式 CNN,因为 低阶多项式 很好地保留了 ReLU 函数 的性质。

 该论文在 RNS-CKKS 下的 加密 CIFAR10/100 数据集 上的 ResNet20/32/44 网络 上实现了 LPFHE,与之前的工作相比,其 摊销推理延迟 减少了48.7%,精度损失 很小。

2、介绍

 作者首先通过研究之前的论文发现:

  • RNS-CKKS 方案,加密数据,并在 CNNs 中执行推理。缺点是,RNS-CKKS 只能支持同态加法和乘法,不能直接求出 CNNs 中的 基本非算数激活函数,例如 ReLU (Rectified Linear Unit) 函数。
  • 之后的研究提出了 使用低阶多项式代替 ReLU,并且 并且重新训练得到的多项式 CNN。但是这些 非标准多项式 CNN精度 方面不可避免地不如 原始 CNN
    • MPCNN
      提出使用 极大极小多项式 的 高次组合 来精确近似 符号函数 sgn (x),并将 ReLU 表示为 x · (0.5 + 0.5 · sgn(x)),从而得到 多项式 ReLU
      缺点是,这种 高阶多项式函数 需要在 密文 上进行许多非常耗时的 同态乘法 和更多的 自举操作
    • AutoFHE
      提出使用 低阶多项式 代替一些 对精度影响较低ReLUs
      缺点是,这种代替是 与目标数据集高度相关的,使得 网络的泛化 不足以在 分布差异较大隐私数据 上保持较高的 准确性

上面这些工作只为 特定的网络 和 数据集 找到 面向精度低次多项式 ReLU使用 低次多项式 精确近似 ReLU 仍然是一个悬而未决的挑战

 作者发现,之前的文章使用的都是一样的 近似域 [-1, 1],便提出了 “域的大小 是否影响 近似精度” 的问题。并在之后的实验中发现,较小的域 会带来 目标函数 更精确的近似
 于是,便提出疑问 “我们可以通过将 近似域 缩小到 [-v, v] (v<1) 来使用 低阶多项式近似 ReLU 吗?”

也就是 缩小近似域提高精度,使用 低阶多项式减少延迟

 这篇论文的贡献点在于:

  1. 提出了一种 高精度的混合近似方法,将 分段加权最小二乘法Remez 算法 相结合。与 Minimax 相比,该方法将 最大近似误差 减低到了 0.23x 到 0.64x 的范围。
  2. 提出了一种 搜索算法 来寻找 每个 ReLU 的最优多项式。结合上面的 近似方法,以可以 忽略不计的精度损失 降低了 多项式 ReLU 的阶
  3. 提出了一种 机制,确定 每个 ReLU最佳近似域。该机制确保每个多项式 ReLU 的输入都落在近似域内,以避免推理失败。因此,近似值不依赖 于广泛使用的假设,即 客户的数据和训练数据在分布上是一致的
  4. RNS-CKKS 下加密的 CIFAR10/100 数据集上 实现了 ResNet20/32/44,与 MPCNN 相比,推理延迟 减少了 48.7%,精确度 几乎没有损失。

3、文章结构

  1. Introduction
  2. Related Works
    1. Training Method with Low-Degree Polynomials
    2. Approximation Method with High-Degree Polynomials
    3. Other Method with Mixed-Degree Polynomials
  3. Preliminaries
    1. RNS-CKKS Fully Homomorphic Encryption
    2. Minimax Composite Polynomial Approximation
    3. Threat Model
  4. Proposed Method
    1. Hybrid Approximation on Minimum Domain
    2. Polynomial Search for Optimal Low-Degree ReLU
    3. Approximation Based on Domain Estimation and Training
  5. Overhead Analysis
  6. Experiments
    1. Experimental Setup
    2. Evaluation of Search Cost and Approximation Precision
    3. Evaluation of Inference Latency and Accuracy
  7. Conclusion

4、总结

 改论文提出了一个名为 LPFHE 的框架来 近似 卷积神经网络中的激活函数 ReLU。与之前在域 [-1, 1] 上近似 ReLU 的工作不同,改论文寻求一个 更小的域,并使用提出的 混合近似方法 来实现 高精度 近似。
 该框架允许 为每个 ReLU 函数 找到 最优域低阶多项式,使得能够使用 低复杂度得多项式 CNN 进行安全推理。
 实验结果表明,工作具有优越的延迟和准确性。
 值得注意的是,LPFHE 提供了一种提高近似精度的新方法,且该方法与现有工作正交。
最小化近似域 也适用于改进 AutoFHE 等最先进的作品。

;