由于大型语言模型的工作原理是预测句子中的下一个单词,因此它们更可能使用“the”、“it”或“is”等常见单词,而不是不稳定的罕见单词。Ippolito和谷歌的一组研究人员表示,这正是自动检测系统擅长识别的文本类型建立在2019年发表的研究中。
但Ippolito的研究也显示了一些有趣的东西:人类参与者倾向于认为这种“干净”的文本看起来更好,错误更少,因此它一定是由人写的。
事实上,人类书写的文本充斥着错字,并且变化莫测,融合了不同的风格和俚语,而“语言模型很少会出现错字。它们更擅长生成完美的文本,”Ippolito说。
她补充道:“文本中的一个拼写错误实际上是一个很好的迹象,表明它是人类写的。”。
大型语言模型本身也可以用于检测AI生成的文本。不列颠哥伦比亚大学(University of British Columbia)加拿大自然语言处理和机器学习研究主席穆罕默德·阿卜杜勒·马吉德(Muhammad Abdul-Mageed)表示,实现这一点最成功的方法之一是根据人类写的一些文本和机器创建的其他文本重新训练模型,以便学会区分这两者研究检测.
与此同时,德克萨斯大学计算机科学家斯科特·阿隆森(Scott Aaronson)借调到OpenAI担任研究员一年开发水印对于由GPT-3等模型生成的较长文本片段,他在博客中写道:“在单词选择中,这是一个不易察觉的秘密信号,稍后你可以用它来证明,是的,这来自GPT。”。
OpenAI的一位发言人证实,该公司正在研究水印,并表示其政策规定,用户应“以任何人都无法合理忽略或误解的方式”清楚地指示AI生成的文本
但这些技术修复都有很大的警告。他们中的大多数都没有机会对抗最新一代的人工智能语言模型,因为它们是建立在GPT-2或其他早期模型之上的。当有大量文本可用时,这些检测工具中的许多工作效果最好;在某些具体用例中,如聊天机器人或电子邮件助理,它们的效率会更低,因为它们依赖于较短的对话,并且提供的分析数据更少。Abdul-Mageed说,使用大型语言模型进行检测还需要强大的计算机,以及对人工智能模型本身的访问,而这是科技公司所不允许的。