@正在处理{gu-etal-2023-水印,title=“通过对比学习与权重扰动相结合对分类任务进行水印{PLM}s”,author=“顾、陈曦和郑晓庆和Xu、Jianhan和吴、穆棱和张、岑元和黄、成松和蔡、华和黄宣景”,editor=“Bouamor、Houda和皮诺、胡安和巴厘岛,卡利卡”,booktitle=“计算语言学协会的发现:EMNLP 2023”,月=12月,年=“2023”,address=“新加坡”,publisher=“计算语言学协会”,url=“https://aclcollectory.org/2023.findings emnlp.239”,doi=“10.18653/v1/2023.findings-emnlp.239”,pages=“3685--3694”,abstract=“大型预训练语言模型(PLM)他们取得了令人瞩目的成功,由于高昂的培训成本,使他们的知识产权极具价值。因此,模型水印作为一种保护神经模型知识产权的方法,已经成为一种关键但尚未得到充分开发的技术。由于PLM的参数会在下游数据集上进行微调时更新,然后由于灾难性遗忘现象很容易去除嵌入的水印,因此PLM水印问题一直没有得到解决。本研究通过嵌入可由特定输入触发的后门来研究PLM水印的可行性。我们在水印阶段使用对比学习,允许特定输入的表示与其他输入分离,并在微调后映射到特定标签。此外,我们还证明,通过将权重扰动与该方法相结合,可以将水印嵌入到损失区域的平坦区域,从而提高其对水印去除的鲁棒性。在多个数据集上的大量实验表明,嵌入的水印可以在不了解下游任务的情况下稳健地提取,并且成功率很高。",}
<?xml version=“1.0”encoding=“UTF-8”?><modsCollection xmlns=“http://www.loc.gov/mods/v3"><mods ID=“gu-etal-2023-水印”><标题信息><title>通过对比学习与权重扰动相结合在分类任务上对PLM进行水印</titleInfo><name type=“personal”>陈曦顾<角色>作者</角色></name><name type=“personal”><namePart type=“given”>小青郑<角色>作者</角色></name><name type=“personal”>剑汉<namePart type=“given”><namePart type=“family”>Xu</namePart><角色>作者</角色></name><name type=“personal”>穆林吴<角色>作者</角色></name><name type=“personal”>岑园<namePart type=“given”><namePart type=“family”>张<角色>作者</角色></name><name type=“personal”>成松<namePart type=“given”>黄<namePart type=“family”><角色>作者</角色></name><name type=“personal”>华<namePart type=“given”>蔡<namePart type=“family”><角色>作者</角色></name><name type=“personal”>轩辕<namePart type=“given”>黄<namePart type=“family”><角色>作者</角色></name><originInfo>2023-12年发布</originInfo><typeOfResource>文本<relatedItem type=“主机”><标题信息>计算语言学协会的发现:EMNLP 2023</titleInfo><name type=“personal”>侯达布阿莫尔<角色>编辑器</角色></name><name type=“personal”>胡安皮诺<角色>编辑器</角色></name><name type=“personal”>卡利卡语巴厘岛<角色>编辑器</角色></name><originInfo>计算语言学协会<位置>新加坡</place></originInfo>会议出版物</relatedItem>大型预训练语言模型(PLM)取得了显著的成功,由于其昂贵的培训成本,使其具有极高的知识产权价值。因此,模型水印作为一种保护神经模型知识产权的方法,已经成为一种关键但尚未得到充分开发的技术。由于PLM的参数会在下游数据集上进行微调时更新,然后由于灾难性遗忘现象很容易去除嵌入的水印,因此PLM水印问题一直没有得到解决。本研究通过嵌入可由特定输入触发的后门来研究PLM水印的可行性。我们在水印阶段使用对比学习,允许特定输入的表示与其他输入隔离,并在微调后映射到特定标签。此外,我们还证明,通过将权重扰动与该方法相结合,可以将水印嵌入到损失区域的平坦区域,从而提高其对水印去除的鲁棒性。在多个数据集上的大量实验表明,嵌入的水印可以在不了解下游任务的情况下稳健地提取,并且成功率很高</摘要>gu-etal-2023-水印10.18653/v1/2023.findings-emnlp.239<位置><网址>https://aclantology.org/2023.findings-emnlp.239</url></位置><部分>2023-12年<扩展单元=“page”><开始>3685</开始><end>3694</范围></部分></模块></modsCollection>
%0会议记录%基于对比学习和权值扰动相结合的分类任务T水印PLM%阿古、陈曦%阿正、小青%阿旭、剑汉%阿武、穆棱%A Zhang,岑苑%阿黄、成松%阿才、华%阿黄、玄静%Y Bouamor,Houda公司%胡安·皮诺%Y巴厘岛,卡利卡%计算语言学协会的发现:EMNLP 2023%D 2023年%12月8日%计算语言学协会%C新加坡%F gu-etal-2023水印%X大型预训练语言模型(PLM)取得了显著的成功,由于其昂贵的培训成本,使其具有极高的知识产权价值。因此,模型水印作为一种保护神经模型知识产权的方法,已经成为一种关键但尚未得到充分开发的技术。由于PLM的参数会在下游数据集上进行微调时更新,然后由于灾难性遗忘现象很容易去除嵌入的水印,因此PLM水印问题一直没有得到解决。本研究通过嵌入可由特定输入触发的后门来研究PLM水印的可行性。我们在水印阶段使用对比学习,允许特定输入的表示与其他输入分离,并在微调后映射到特定标签。此外,我们还证明,通过将权重扰动与该方法相结合,可以将水印嵌入到损失区域的平坦区域,从而提高其对水印去除的鲁棒性。在多个数据集上的大量实验表明,嵌入的水印可以在不了解下游任务的情况下稳健地提取,并且成功率很高。%R 10.18653/v1/2023.查找-emnlp.239%U型https://aclantology.org/2023.findings-emnlp.239%U型https://doi.org/10.18653/v1/2023.findings-emnlp.239%电话:3685-3694
降价(非正式)
[通过对比学习和权重扰动相结合对分类任务进行水印PLM](https://aclantology.org/2023.findings-emnlp.239)(Gu等人,结果2023)
国际计算语言学协会