在过去的一年里,生成性人工智能模型的巨大普及也带来了人工智能生成的深度伪造、非感官色情和版权侵犯的激增。水印-一种将信号隐藏在文本或图像中以识别其为人工智能生成的技术已经成为抑制此类危害的最流行的想法之一。
7月,白宫宣布它获得了OpenAI、谷歌和Meta等领先AI公司的自愿承诺,开发水印工具,以打击AI生成内容的错误信息和滥用。
在谷歌5月年度会议I/O首席执行官Sundar Pichai表示,该公司正在构建包括水印和其他技术从一开始谷歌DeepMind是第一家公开推出此类工具的大科技公司。
传统上,通过在图像上添加可见覆盖层或在其元数据中添加信息,对图像进行水印。但谷歌DeepMind研究副总裁Pushmeet Kohli表示,这种方法“脆弱”,当图像被裁剪、调整大小或编辑时,水印可能会丢失。
SynthID是使用两个神经网络创建的。一个是取原始图像,生成另一个图像,它看起来几乎与原始图像相同,但有些像素经过了微妙的修改。这创建了一个人眼看不见的嵌入图案。第二个神经网络可以识别图案,并告诉用户它是否检测到了水印、怀疑图像有水印或发现图像没有水印。科尔里说,SynthID的设计方式意味着即使图像被截屏或编辑,也可以检测到水印,旋转或调整大小
芝加哥大学(University of Chicago)教授本·赵(Ben Zhao)表示,谷歌DeepMind并不是唯一一个致力于此类水印方法的人系统防止艺术家的图像被人工智能系统刮伤。类似技术已经存在t和are在中使用开源AI图像生成器稳定扩散。Meta还进行的研究关于水印,尽管它还没有推出任何公开的水印工具。
Kohli声称,谷歌DeepMind的水印比之前为图像创建水印的尝试更具抗篡改性,尽管还不能完全免疫。
但赵对此表示怀疑。“随着时间的推移,很少或根本没有水印被证明是稳健的,”他说。早期工作文本水印发现他们是容易破碎通常在几个月内。