在脸书、Instagram和线程上标记AI生成的图像

作者:尼克·克莱格,全球事务总裁

外卖

  • 我们正在与行业合作伙伴合作,制定识别人工智能内容(包括视频和音频)的通用技术标准。
  • 在接下来的几个月里,当我们能够检测到用户发布到Facebook、Instagram和Threads上的AI生成的行业标准指标时,我们将为用户发布的图像贴上标签。 
  • 自从Meta AI推出以来,我们已经为使用它创建的照片级真实感图像贴上了标签,这样人们就知道它们是“用AI成像”的。

作为一家十多年来一直处于人工智能发展前沿的公司,看到人们使用我们新的生成性人工智能工具(比如我们的元人工智能图像生成器,它可以帮助人们使用简单的文本提示创建图片)的创造力爆发,我们感到非常鼓舞。

随着人工内容和合成内容之间的差异变得模糊,人们想知道界限在哪里。人们经常第一次看到AI生成的内容,我们的用户告诉我们,他们很欣赏这项新技术的透明性。因此,我们帮助人们知道他们看到的照片级真实感内容是何时使用人工智能创建的,这一点很重要。我们通过对使用Meta AI功能创建的照片级真实感图像应用“用人工智能进行想象”标签来做到这一点,但我们也希望能够使用其他公司的工具创建的内容来做到这一点。 

这就是为什么我们一直在与行业合作伙伴合作,以统一通用技术标准,在使用人工智能创建内容时发出信号。能够检测到这些信号,将使我们能够标记用户发布到Facebook、Instagram和Threads上的人工智能生成的图像。我们现在正在构建此功能,在未来几个月内,我们将开始在每个应用程序支持的所有语言中应用标签。我们将在明年采取这种做法,在这一年里,世界各地将举行一系列重要的选举。在这段时间里,我们希望更多地了解人们是如何创建和共享AI内容的,人们认为什么样的透明度最有价值,以及这些技术是如何发展的。我们学到的知识将为行业最佳实践和我们自己的方法提供信息。

一种识别和标记AI生成内容的新方法

当使用我们的Meta AI功能创建照片级真实感图像时,我们会做几件事来确保人们知道AI的参与,包括可见标记你可以在图像上看到的,以及两者无形水印以及图像文件中嵌入的元数据。以这种方式使用不可见水印和元数据可以提高这些不可见标记的健壮性,并帮助其他平台识别它们。这是 我们正在采取负责任的方法来构建生成性人工智能功能

自从人工智能生成的内容出现在互联网上以来,我们一直在与行业中的其他公司合作,制定通用标准,以便通过论坛(如 人工智能伙伴关系(PAI)。我们用于Meta AI图像的无形标记——IPTC元数据和无形水印——与PAI一致 最佳实践.

我们正在构建行业领先的工具,可以在规模上识别无形标记,特别是 “人工智能生成”信息C2PA公司 国际警察组织技术标准–因此,我们可以为来自谷歌、OpenAI、微软、Adobe、Midtrivel和Shutterstock的图像添加标签,因为他们实施了向工具创建的图像添加元数据的计划。 

此幻灯片需要JavaScript。

虽然公司开始在图像生成器中包含信号,但他们还没有开始将其包含在生成相同规模音频和视频的AI工具中,所以我们还无法检测到这些信号并将其他公司的内容标记为这些内容。虽然业界正在努力实现这一功能,但我们正在添加一个功能,供人们在共享AI生成的视频或音频时披露,以便我们可以为其添加标签。我们将要求人们在发布带有照片级真实感视频或真实声音音频的有机内容时使用此公开和标签工具,这些内容是数字创建或更改的,如果他们不这样做,我们可能会处以罚款。如果我们确定是数字创建的或更改的图像,视频或音频内容在重要事项上具有极高的实质性欺骗公众的风险,我们可以在适当的情况下添加更突出的标签,以便人们获得更多信息和背景。

这种方法代表了目前技术上可行的最前沿。但目前还不可能识别出所有人工智能生成的内容,人们可以通过一些方法去除看不见的标记。因此,我们正在寻求一系列选择。我们正在努力开发分类器,可以帮助我们自动检测人工智能生成的内容,即使内容缺少隐形标记。与此同时,我们正在寻找方法,使去除或更改无形水印更加困难。例如,Meta的AI研究实验室FAIR最近分享了我们正在开发的一种叫做“隐形水印技术”的研究 稳定签名这将水印机制直接集成到某些类型图像生成器的图像生成过程中,这对于开源模型很有价值,因此水印不能被禁用。 

这项工作尤其重要,因为这很可能在未来几年成为一个越来越具有对抗性的空间。积极想用人工智能生成的内容欺骗人们的人和组织将寻找方法绕过为检测它而设置的保护措施。更广泛地说,在我们的行业和社会中,我们需要继续寻找保持领先一步的方法。 

与此同时,人们在确定内容是否由人工智能创建时,重要的是要考虑几件事,比如检查共享内容的帐户是否可信,或者寻找可能看起来或听起来不自然的细节。 

现在是AI生成内容传播的早期阶段。随着它在未来几年变得越来越普遍,社会上将会就应该做什么和不应该做什么来识别合成和非合成内容展开辩论。行业和监管机构可能会采取措施,对未使用人工智能创建的内容以及已创建的内容进行认证。我们今天列出的是我们认为适合目前在我们的平台上共享内容的步骤。但我们将继续观察和学习,我们将一如既往地审查我们的方法。我们将继续与业界同行合作。我们将继续与各国政府和民间社会对话。 

人工智能既是剑又是盾

我们的社区标准适用于我们平台上发布的所有内容,无论其是如何创建的。当涉及到有害内容时,最重要的是我们能够捕捉到它并采取行动,无论它是否是使用人工智能生成的。在我们的诚信系统中使用人工智能是我们捕捉它的重要原因

多年来,我们一直使用人工智能系统来帮助保护我们的用户。例如,我们使用人工智能来帮助我们检测和处理仇恨言论和其他违反我们政策的内容。这是我们能够将脸书上仇恨言论的流行率降至0.01-0.02%(截至2023年第三季度)的主要原因。换句话说,对于每10000个内容视图,我们估计只有一两个包含仇恨言论。

虽然我们使用人工智能技术来帮助执行我们的政策,但我们在这方面对生成性人工智能工具的使用是有限的。但我们乐观地认为,生成人工智能可以帮助我们更快、更准确地删除有害内容。在风险加剧的时刻,它还可以有助于执行我们的政策,比如选举。我们已经开始测试大型语言模型(LLM),通过对它们进行社区标准培训来帮助确定一段内容是否违反了我们的策略。这些初始测试表明,LLM的性能优于现有的机器学习模型。在某些情况下,我们还使用LLM从审查队列中删除内容,因为我们非常确信这些内容不会违反我们的策略。这为我们的审稿人腾出了空间,使他们能够专注于更有可能违反我们规则的内容。

AI生成的内容也有资格由我们的独立事实检查合作伙伴进行事实检查,我们将被揭穿的内容贴上标签,以便人们在互联网上遇到类似内容时能够获得准确的信息。

十多年来,Meta一直是人工智能开发的先驱。我们知道,进步和责任能够而且必须携手并进。生成性人工智能工具提供了巨大的机会,我们认为以透明和负责的方式开发这些技术是可能的,也是必要的。这就是为什么我们想帮助人们知道照片级真实感图像是什么时候使用人工智能创建的,以及为什么我们也对可能的限制持开放态度。我们将继续学习人们如何使用我们的工具来改进它们。我们将继续通过PAI等论坛与其他人合作,制定共同标准和护栏。 



为了帮助个性化内容、定制和衡量广告,并提供更安全的体验,我们使用cookie。通过点击或浏览网站,您同意允许我们通过cookie在脸书内外收集信息。了解更多信息,包括可用控件:Cookie政策