Concrete ML v1.6:更大的神经网络和预训练的基于树的模型

  • ZamaFHE
  • 发布于 2024-07-06 11:35
  • 阅读 86

Concrete ML v1.6 版本提升了大型神经网络的延迟,增加了对预训练的基于树模型的支持,并通过引入 DataFrame 模式和简化 Logistic 回归训练的部署,从而简化了协作计算。该版本还展示了深度 MLP 模型和 ResNet18 模型的延迟改进,并提供了加密训练和 DataFrame 模式的增强功能。此外,还包含用于Windows系统的GPU支持。

Concrete ML v1.6 改进了大型神经网络的延迟,增加了对预训练的基于树的模型的支持,并通过引入 DataFrame schemas 和促进 logistic regression 训练的部署来简化协作计算。虽然 GPU 支持很快将在 Concrete ML 中可用,但下面给出了一些早期的延迟结果。

预训练的基于树的模型

Concrete ML 长期以来一直支持通过 from_sklearn 转换预训练的线性模型,以及使用 compile_torch_model 转换预训练的神经网络。预训练模型很受欢迎,因为从头开始训练模型容易出错,并且需要更深入的机器学习知识。此外,实施特定的训练算法,例如 federated learning,需要单独的专用工具包,但对此类训练模型的安全部署仍然至关重要。Concrete ML v1.6 现在支持使用 from_sklearn 函数导入预训练的树模型。与在明文中使用原始模型相比,默认导入设置可确保在加密数据上保持准确性。有关更多信息,请参阅文档

延迟改进

两个新的 notebook 展示了 Concrete v1.6 中预训练神经网络的延迟改进

  • 深度 MLP 模型:此 notebook 演示了一个 20 层的深度 MLP。它编译了一个预训练模型,并在加密数据上以 1 秒的延迟执行,使用 hpc7 AWS 实例比 Zama 白皮书 中的先前结果快 20 倍。
  • ResNet18 模型:此 notebook 演示了一个在 ImageNet 上运行的 ResNet18 模型,该模型在加密的 256 像素宽的图像上执行。虽然在 GPU 上的延迟大约为 56 分钟,但该模型比 TFHE ML 的最新技术 提高了 4 倍。下一个版本将启用最终用户 GPU 支持。

部署增强

借助 Concrete ML v1.6,开发人员可以轻松地将 logistic regression 训练部署为客户端-服务器服务。与以前的版本一样,开发人员可以参数化训练系统,选择要训练的特征数量和训练超参数。此外,Concrete ML v1.6 允许打包训练电路,以便将其部署到云上。有关更多详细信息,请参阅加密训练文档

DataFrame schemas

Concrete v1.6 中更新的 DataFrame API 减少了存储的 DataFrames 的大小,并允许用户手动控制他们加密的 DataFrames 的 schema。Schemas 描述了加密数据,使多个用户可以使他们的数据彼此兼容。该功能在加密 DataFrame notebook 中进行了演示。

此版本中的新功能和改进提高了 Concrete ML 的性能和可用性。即将推出的 GPU 支持将在不久的将来带来更大的进步。敬请关注!

更多链接

  • 原文链接: zama.ai/post/concrete-ml...
  • 登链社区 AI 助手,为大家转译优秀英文文章,如有翻译不通的地方,还请包涵~
点赞 0
收藏 0
分享
本文参与登链社区写作激励计划 ,好文好收益,欢迎正在阅读的你也加入。

0 条评论

请先 登录 后评论
ZamaFHE
ZamaFHE
Zama是一家开源密码学公司,专注于为区块链和人工智能构建最先进的完全同态加密(FHE)解决方案。