5
$\开始组$

鉴于最近的公告站点现在可以请求启用横幅来警告其AI生成内容的策略考虑到我们的立场人工智能帮助生成的帖子是否应标记为人工智能生成的内容?如何警告用户AI生成的内容?,在我看来,我们可能会感谢“为AI生成内容标记的帖子减少”。(幸运的是,我们还没有然而看到了大量这样的帖子)。

我将把两个“投票”帖子作为答案,每个“是”选项一个:

  • **提醒**:不允许在[站点名称]上使用人工智能工具生成答案。了解更多信息
  • **提醒**:人工智能工具生成的答案必须在[站点名称]上引用。了解更多信息

……但如果您出于任何原因不同意这个想法,请添加一个单独的答案!

然后,横幅将恰好出现在需要告知潜在AI海报的位置,说明此处的工作方式:

图片显示了答案字段,焦点处有一条横幅,上面写着“提醒:Stack Overflow上不允许使用人工智能工具生成的答案。了解更多信息”

$\端组$
6
  • 7
    $\开始组$ 感谢您花时间发布此消息。我投票赞成不允许人工智能在我们的网站上生成答案,我的理由是,到目前为止,它并没有为我们提供很好的服务,并且增加了大量的管理开销。与我们目前掌握的跟踪这些帖子的方法相比,完全禁止这些帖子,允许我们删除这些帖子要容易得多。任何想要人工智能生成答案的人都可以直接访问任何人工智能模型站点。 $\端组$ 评论 5月6日18:35
  • 2
    $\开始组$ 也谢谢。。我假设“不允许”不排除以下答案起源可能是在人工智能中,但随后已被人类彻底测试和编辑。这些在任何情况下都几乎不可能被检测到。 $\端组$
    – 罗宾·贝茨 国防部
    评论 5月7日6:47
  • $\开始组$ @RobinBetts我认为,如果没有人能够真正检测到答案是在人工智能的帮助下编写的,那么就没有理由进行干预,因为人类显然已经尽其所知和所信编写/编辑了一个有意义的答案,就内容而言,这也应该是正确的。 $\端组$
    – 针状的 国防部
    评论 5月7日8:01
  • 5
    $\开始组$ 我在LinkedIn上读到了AI生成的关于硬边UV分裂的答案。尽管这是谷歌第一次受到欢迎,但它确实毫无用处。没有什么比塞满了完全无关的胡言乱语的“完美”段落更好的了(感觉就像是一个加密骗子在Facebook上发布的帖子)。然后我读了一篇关于同一主题的关于宝莱蒙的人性化文章。这是纯金。没有比较。不用说,我对领英和谷歌在推动人工智能方面的愚蠢行为大加赞赏。 $\端组$ 评论 5月13日15:03
  • 2
    $\开始组$ 我经常使用GPT,我当然反对允许AI生成内容。我一直看到它的缺陷,即使是最新的版本也很难解析复杂的句子,它产生的内容不是创造性的批判性思维的结果,而是其他创造性批判性思考的融合。通常不会以连贯的方式合并在一起。然而,人工智能已经非常擅长翻译。作为双语者,我确实看到人工智能翻译文本中的奇怪之处,但很少出现明显的错误。禁止人工智能生成,但允许人工智能翻译。 $\端组$
    – 用户143855
    评论 5月22日16:36
  • 1
    $\开始组$ @泰坦铁匠我完全同意你的观点!(大多数)人工智能翻译机制实际上工作得很好。这正是它们不成问题的原因,因为翻译的内容实际上完美无缺且易于理解。正如你正确指出的那样,问题在于AI生成的内容主要是AI影响的结果。换言之,内容只是以一种愚钝的方式生成看似合理的内容,但它永远经不起实际测试。 $\端组$
    – 针状的 国防部
    评论 5月22日19:23

2个答案2

重置为默认值
14
$\开始组$

不允许使用人工智能工具生成答案

我认为我们应该添加以下横幅:

提醒:不允许在[站点名称]上使用人工智能工具生成答案。了解更多信息

$\端组$
1
  • 1
    $\开始组$ 此横幅现已在Blender SE上启用! $\端组$
    – 萨沙 工作人员国防部
    评论 6月6日20:05
$\开始组$

必须引用人工智能工具生成的答案

我认为我们应该添加以下横幅:

提醒:人工智能工具生成的答案必须在[站点名称]上引用。了解更多信息

$\端组$

你必须登录来回答这个问题。

不是你想要的答案吗?浏览标记的其他问题.