日期不一致

日期不一致

14个按ID排序的结果

2024/689 (PDF格式) 上次更新时间:2024-05-06
使用生成预训练变压器模型自动创建密码哈希函数实现的源代码变量
以利亚·佩洛夫斯克(Elijah Pelofske)、文森特·乌里亚斯(Vincent Urias)、洛丽·利布鲁克(Lorie M.Liebrock)
实施

生成性预处理变换器(GPT)是一种大型语言机器学习模型,非常擅长生成新颖、连贯的自然语言。值得注意的是,这些技术也被成功地扩展到了计算机编程语言。然而,GPT模型的输出通常是随机的,并不总是正确的。对于编程语言,严格要求在语法和算法上对计算机代码进行精确的规范,以便。。。

2024/477年 (PDF格式) 上次更新时间:2024-05-11
区块链安全的大型语言模型:系统文献综述
何哲远、李子豪、杨森、姚乔、张晓松、罗霞浦、陈婷
应用

大型语言模型(LLM)已成为网络安全中跨多个领域的强大工具。尤其是,最近的研究越来越多地探索应用于区块链安全(BS)背景下的LLM。然而,对于LLM对区块链安全的全部应用范围、影响和潜在约束,在全面理解方面仍然存在差距。为了填补这一空白,我们进行了一项文献综述,重点是在区块链中应用LLM的研究。。。

2023/1776 (PDF格式) 上次更新时间:2023-11-16
沙子中的水印:生成模型的强水印不可能
Hanlin Zhang、Benjamin L.Edelman、Danilo Francati、Daniele Venturi、Giuseppe Ateniese、Boaz Barak
基础

水印生成模型包括在模型输出中植入统计信号(水印),以便稍后可以验证输出是由给定模型生成的。强水印方案满足这样一个特性,即计算上有界的攻击者不能在不造成显著质量下降的情况下擦除水印。在本文中,我们研究了强水印方案的可能性。我们证明,在明确和自然的假设下,。。。

2023/1763年 (PDF格式) 上次更新时间:2024-05-08
安全变压器推断
穆元、张岚、李向阳
应用

模型参数和用户数据的安全性对于基于Transformer的服务(如ChatGPT)至关重要。虽然最近在安全的两方协议方面取得的进展成功地解决了Transformer模型中的安全问题,但由于涉及到禁止性的加密开销,采用它们实际上是不可行的。根据我们在开发两个基于Transformer的现实世界服务方面的实践经验,我们发现了……中固有的效率瓶颈。。。

2023/1678 (PDF格式) 上次更新时间:2023-10-31
大黄蜂:大型变压器的安全双向推理框架
陆文杰、黄志聪、顾振宇、李靖宇、刘健、奎仁、程红、陶伟、陈文光
加密协议

基于大型变压器的模型已经在许多现实世界的任务(如自然语言处理和计算机视觉)上实现了最先进的性能。然而,随着他们处理的数据和任务的敏感性越来越高,隐私已经成为模型部署过程中的一个主要问题。在这项工作中,我们关注两方环境中的私有推理,其中一方持有私有输入,另一方持有模型。我们介绍了大黄蜂,一种快速且便于交流的。。。

2023/1615 (PDF格式) 上次更新时间:2024-01-16
有序与混沌:边通道攻击的语言模型方法
Praveen Kulkarni、Vincent Verneuil、Stjepan Picek、Lejla Batina
攻击和密码分析

我们引入了Order vs.Chaos(OvC)分类器,这是一种用于并行攻击的新型语言模型方法,它结合了多任务学习(通过使用语言模型)、多模式学习和深度度量学习的优点。我们的方法为Masure等人提出的用于学习多目标的多任务分类器提供了一个可行的替代品。我们强调了多任务分类器的一些众所周知的问题,如可伸缩性、平衡多任务、速度慢。。。

2023/1561 (PDF格式) 上次更新时间:2023-10-10
SoC安全LLM:范式转换
Dipayan Saha、Shams Tarek、Katayoon Yahyaei、Sujan Kumar Saha、Jingbo Zhou、Mark Tehranipoor、Farimah Farahmandi
应用

随着系统芯片(SoC)设计在电子设备中的普遍性和复杂性的增加,将安全性纳入SoC设计流程的任务提出了重大挑战。由于可扩展性、全面性和适应性方面的限制,现有安全解决方案不足以对现代SoC设计进行有效验证。另一方面,大型语言模型(LLM)因其在自然语言理解方面的显著成功而闻名,。。。

2023/763 (PDF格式) 上次更新时间:2023-05-26
语言模型的不可检测水印
米兰达·基督、萨姆·冈恩或扎米尔
应用

GPT-4等大型语言模型功能的最新进展引发了人们对我们检测AI生成文本的能力的日益关注。之前的工作建议通过$\textit{明显}$改变输出分布,在模型输出中嵌入水印的方法。我们问:是否有可能在不引起$\textit{任何可检测的}$输出分布变化的情况下引入水印?为此,我们引入了一种受密码学启发的不可检测概念。。。

2023/592年 (PDF格式) 上次更新时间:2023-04-29
区块链大型语言模型
于盖、周立毅、秦开华、黎明之歌、亚瑟·杰维斯
应用

本文提出了一种动态、实时检测异常区块链交易的方法。提议的工具BlockGPT生成区块链活动的跟踪表示,并从头开始训练大型语言模型,以充当实时入侵检测系统。与传统方法不同,BlockGPT旨在提供不受限制的搜索空间,不依赖预定义的规则或模式,使其能够检测更广泛的异常。我们演示了。。。

2022/1181 (PDF格式) 上次更新时间:2022-11-24
量子密码所需的计算难度
兹维卡·布拉克斯基、兰·卡内蒂、钱洛文
基础

在经典的计算模型中,单向函数(OWF)对于计算密码学来说是最小的,这一点已经得到了很好的证实:它们对于几乎任何无法在计算上无界的对手中实现的加密应用来说都是必不可少的。然而,在量子环境中,OWF似乎并不重要(Kretschmer 2021;Ananth等人,Morimae和Yamakawa 2022),这样一个最小的原语是否存在的问题仍然悬而未决。我们认为EFI。。。

2021/1027 (PDF格式) 上次更新时间:2021-12-03
指纹攻击与长度隐藏加密
Kai Gellert、Tibor Jager、Lin Lyu、Tom Neuschulten

众所周知,加密消息的长度可能会泄露有关加密数据的敏感信息。指纹攻击使对手能够确定用户访问的网页,甚至是在IP语音对话中使用的语言和短语。先前的研究已经确立了一个普遍的观点,即长度足够长的填充会显著提高安全性,从而导致不合理的大带宽开销。我们认为这个观点是。。。

2020/1427 (PDF格式) 上次更新时间:2020-11-15
随机Oracle模型中简洁论证的障碍
亚历山德罗·基耶萨(Alessandro Chiesa)、埃伦·约盖夫(Eylon Yogev)
基础

我们对随机预言模型中简洁参数的效率设置了障碍。我们证明,在标准复杂性假设下,不存在简洁的参数,其中参数验证器对随机预言机进行少量查询。新的障碍来自对概率证明如何在随机预言模型中构造简洁论据的基础作用的新见解。*IOP对于简洁来说是必要的*我们证明任何。。。

2018/141 (PDF格式) 上次更新时间:2019-10-04
乱码电路的符号安全性
李白玉,Daniele Micciancio
基础

我们给出了姚明的第一个计算声音符号分析用于安全两方计算的乱码电路构造。我们的结果包括密码符号语言的扩展以前关于计算声音符号分析的工作中的表达式,以及这个扩展语言的稳健性定理。然后我们演示如何使用扩展语言来形式上不仅规定了杂乱的电路结构,而且还规定了正式(象征性)。。。

2017/122 (PDF格式) 上次更新时间:2018-03-21
来自格的一次性可验证加密
瓦迪姆·卢巴舍夫斯基(Vadim Lyubashevsky)、格雷戈里·内文(Gregory Neven)

可验证加密允许证明加密数据的属性,是密码协议设计中的一个重要组成部分,例如群签名、密钥托管、公平交换协议等。现有的基于格的可验证加密方案,甚至只是加密数据知识的证明,需要并行的证据合成来减少可靠性错误,从而产生只有在摊销大量证据时才真正实用的证据大小。。。

注:为了保护读者的隐私,eprint.iacr.org不使用cookie或嵌入的第三方内容。