论文2023/1917

正则PolyKervNets:优化深度神经网络中私有推理的表达性和效率

Toluwani Aremu公司穆罕默德·本·扎耶德人工智能大学
摘要

深度神经网络(DNN)中非线性函数(如整流线性单元(ReLUs)和最大池操作)的私有计算在存储、带宽和时间消耗方面提出了重大挑战。为了应对这些挑战,人们对利用多项式激活函数和核卷积作为传统ReLU替代品的隐私保护技术越来越感兴趣。然而,这些替代方法往往在实现更快的私有推理(PI)和牺牲模型准确性之间进行权衡。特别是,当应用于更深层次的网络时,这些方法会遇到训练不稳定性,导致梯度爆炸(导致NaN)或次优近似等问题。在本研究中,我们重点关注PolyKervNets,这是一种在较小网络中提供改进的动态近似的技术,但在较大和更复杂的网络中仍面临不稳定性。我们的主要目标是从经验上探索基于优化的训练方法,以提高PolyKervNets在大型网络中的性能。通过这样做,我们的目标是潜在地消除对传统非线性激活函数的需要,从而提高隐私保护深层神经网络架构的最新水平。

元数据
可用格式
PDF格式
类别
应用
出版物信息
预打印。
关键词
隐私保护机器学习多项式近似深度神经网络同态加密MPC公司
联系作者
托鲁瓦尼阿雷姆@mbzuai ac声发射
历史
2023-12-19年:修订
2023-12-14:收到
查看所有版本
短网址
https://ia.cr/2023/1917
许可证
知识共享属性
抄送人

BibTeX公司

@其他{加密打印:2023/1917,author={Toluwani Aremu},title={正则化{PolyKervNets}:优化深层神经网络中私有推理的表达性和效率},howpublished={密码学ePrint档案,论文2023/1917},年份={2023},注释={\url{https://eprint.iacr.org/2023/1917}},url={https://eprint.iacr.org/2023/1917}}
注:为了保护读者的隐私,eprint.iacr.org不使用cookie或嵌入的第三方内容。