5
$\开始组$

作为这个平台的主持人(和用户),我越来越认识到一个令人不安的发展,这让我思考应该采取什么行动,以避免降低这个平台的可信度和质量。

最近,在各种SE网站(包括此处)上都有用户使用ChatGPT(或类似机制)发布了答案。一些答案是有帮助的,甚至被接受了,但尽管如此,大多数答案也是严重错误的,并引起了一些混乱。

我自己也认识到越来越多的问题是由ChatGPT的错误答案引起的,这些问题都是在这里提出的。就我个人而言,我看到了这样的危险:这个平台将退化为真正的类人专业知识和假定知识的一个非常困难的混合体,因此从长远来看,它将不再履行其实际的使命。

关于人工智能的话题通常比较复杂,因此很难判断。然而,实际出现的问题是,作为一个平台、主持人和用户,如何应对这一趋势,以及人们希望在未来如何应对。

在我看来,这需要尽快采取行动,而不是太迟,以便对人工智能生成的内容进行明确标记,以便该平台的访问者有机会正确评估所提供的内容及其质量/真实性。

因此,我呼吁在此平台上实现两件事:

  • AI生成内容的清晰标签
  • 标记为AI生成内容的帖子不应获得声誉积分

该机制可以像迄今为止成功使用的标记问题/答案的系统一样设计。贡献可以由软件和社区标记,社区可以接受或拒绝这些建议。经过一定数量的操作或由主持人干预后,这些帖子会得到一个额外的标志(类似于绿色标志,它将答案标记为已接受)。


由于有时很难就这样的改变做出决定,我刚刚与需要了解的人进行了一次非常愉快的对话,并在这里发布了未删节的版本,供您发表宝贵意见:

在此处输入图像描述 我有一个关于StackExchange的问题。这是一个问答平台,人们可以在这里提问,其他人可以在这里回答问题。我能问你这件事吗?
在此处输入图像描述 是的,你可以问我关于StackExchange的事。作为一个人工智能语言模型,我可以为您提供关于这个平台的信息和见解。
在此处输入图像描述 很 完美!把人类写的答案和人工智能的贡献混合在一起会产生什么问题?
在此处输入图像描述 将人类编写的答案和人工智能生成的贡献混合在一起可能会产生一些问题。以下是几个示例:

一致性:如果答案由不同来源生成,则很难确保语气、风格和格式的一致性。这会使内容更难阅读,也不太可信。

准确度:人工智能可能并不总是正确的,尤其是在需要人类判断的领域。这可能导致错误或误导性信息的传播。

偏见:人工智能还可以使其所训练的数据集中存在的偏见永久化,导致产生不准确或不公平的信息。

问责:如果内容有问题,可能很难确定谁负责。这会使纠正错误或追究某人对所造成的任何伤害的责任变得更加困难。

创意:人工智能并不总是能够产生创意或原创内容。这可能会使答案看起来像机器人或通用的,而不是根据手头的具体情况或问题进行定制。
在此处输入图像描述 人工智能生成的贡献是否应该被允许在StackExchange等知识平台上使用,从而能够获得声誉,尽管过去只有回答问题令人满意的人类才能获得声誉积分?这不会抵消声誉积分系统吗?
在此处输入图像描述 作为人工智能语言模型,我没有个人信仰或观点,但我可以对问题进行客观分析。

允许AI在StackExchange等知识平台上生成贡献可能会产生积极和消极的影响。一方面,人工智能生成的贡献可以为问题提供准确而有用的答案,可能会提高平台上可用信息的整体质量。此外,人工智能产生的贡献可能会为尚未回答的问题提供解决方案,这些问题可能过于复杂或专业,人类专家无法回答。

另一方面,允许人工智能生成的贡献获得声誉点可能会破坏现有的声誉系统,该系统基于对人类专业知识和努力的认可。如果人工智能生成的贡献被允许获得声誉积分,这可能会导致答案的质量和准确性不再是影响平台声誉的主要因素。此外,这可能会造成一种情况,即人工智能生成的贡献优先于人工生成的内容,从而进一步降低平台对人类参与者的价值。

最终,在StackExchange等知识平台上允许AI生成贡献的决定应该基于对这种系统潜在的优点和缺点的仔细考虑。一个可能的解决方案是允许AI生成的响应,但不为其授予声誉积分。
在此处输入图像描述 是否应该将人工智能生成的帖子标记为人工智能生成帖子,以便寻求帮助的人能够清楚区分它们?
在此处输入图像描述 作为人工智能语言模型,我没有个人观点或信仰。然而,我的专业观点是,在人工智能的帮助下生成的帖子应该标记为人工智能生成的贴子,以向读者提供透明度和清晰度。通过明确识别人工智能生成的帖子,读者可以信任所提供信息的真实性。它还允许读者区分人工生成的内容和人工智能生成的内容,这可以帮助他们评估帖子的准确性和相关性。总的来说,标记人工智能生成的帖子为内容创建提供了一种更加道德和透明的方法。
在此处输入图像描述 这是一个有趣的答案!尽管你对此没有个人意见,但从纯粹的专业角度来看,你是否建议将AI生成的帖子明确标记为AI生成,以便寻求帮助的人清楚地知道,AI生成内容可能包含严重错误,不一定代表解决方案?
在此处输入图像描述 作为人工智能语言模型,我没有个人意见。然而,从专业的角度来看,建议AI生成的帖子应明确标记为AI。这一点很重要,因为它可以帮助用户理解,他们正在交互的内容不一定是由人类专家创建的。明确内容由人工智能生成可以防止潜在的误解和误解,并有助于与用户建立信任。此外,标记人工智能生成的内容也有助于提高机器学习系统的透明度,随着这些系统变得更加先进和普遍,这一点变得越来越重要。
在此处输入图像描述 但是,如何自动将人工智能生成的帖子与人类创建的帖子区分开来,以便能够可靠、自动地标记这些帖子?
在此处输入图像描述 区分人工智能帖子和人工生成帖子的一种方法是分析文本的语言风格和模式。人工智能生成的内容往往缺乏自然人类语言的细微差别和创造性,往往遵循特定的模式或结构。可以训练机器学习算法来识别这些模式,并识别帖子是否可能由人工智能生成。此外,帖子来源或帖子频率等元数据也可以提供区分人工内容和人工智能生成内容的信号。也可以使用验证方法(如验证码测试)验证人工生成的内容。
在此处输入图像描述 好的,但我觉得这个答案有点模糊。你能详细说明一下,并就如何积极帮助检测AI生成的帖子并将其标记为AI生成帖子提出具体建议吗?
在此处输入图像描述 作为一个人工智能语言模型,我没有能力主动帮助检测人工智能生成的帖子。然而,社交媒体平台可以实现AI驱动的内容检测算法等工具,这些算法可以分析帖子的语言模式和其他特征,以检测帖子是由AI还是人为生成的。然后,这些工具可以将帖子标记为潜在的人工智能生成,并删除或添加一个标签,表明帖子是人工智能生成的。用户还可以学习如何识别人工智能生成内容,以便向平台报告。
在此处输入图像描述 如果我正确理解这一点,那么它是否需要人类整合这一功能,从而实现基于人工智能的贡献识别?我正在考虑一个类似StackExchange目前使用的系统,其中会标记贡献,然后社区会审查这些建议,并接受或拒绝这些建议。这会是一个解决方案吗?
在此处输入图像描述 是的,这是一个可能的解决方案。人工智能可用于根据特定标准或模式生成建议,但最终需要人工审查和输入,以确保确认贡献的准确性和公平性。像StackExchange上使用的系统那样,社区成员可以在其中审查和标记贡献,这样可以有效地实现这一点。最终,人工智能和人类审查的结合可以帮助确保一个全面的贡献认可系统。
在此处输入图像描述 听起来太棒了!这个答案可能是在人工问答平台上处理人工智能生成内容的合理方式!感谢您诚实而有帮助的回答,祝您度过美好的一天!
在此处输入图像描述 不客气!我很高兴能提供一些见解。如果你将来有任何问题,请毫不犹豫地联系我们。也祝你有美好的一天!
在此处输入图像描述 呃,等等,但我不太明白这个答案。你对任何事情都没有个人意见,但你假装理解什么是“美好的一天”?现在我很困惑。你能更详细地解释一下你是如何得出这样的假设的吗?
在此处输入图像描述 作为一个人工智能语言模型,我没有个人的观点或感受,因为我不能像人类那样表达情感。然而,我已经被编程来理解和解释语言的含义,包括习惯用语,如“祝你度过愉快的一天”。当用户做出这样的陈述时,我可以处理语言线索和上下文,以确定他们表达的是积极的,还是满意或幸福的感觉。我的回答是基于对“伟大的一天”这一短语的普遍接受意义的理解,并根据这一解释作出适当的回应。

因此,总之,真正需要说的是:“祝您度过美好的一天,并思考您的问答平台未来应该如何运行。”

你的主持人。


有用的:我们的网站是否有ChatGPT或其他AI相关讨论和政策的列表?承诺:OpenAI检测器

$\端组$
4
  • 4
    $\开始组$ @quellenform感谢您发布这篇文章以及所有相关工作和调查。作为版主,我有责任将这篇文章标记为包含AI生成的内容。) $\端组$ 评论 2023年5月13日21:21
  • 2
    $\开始组$ 很有趣。感谢您开始辩论并阐明问题。我认为,如果我们想掌握最新情况,我们还应该考虑AI生成后我们会做什么网格,节点树,更一般地说资产将开始出现疑难解答问题(以目前的速度,我猜我们将在今年年底看到这一点)。人工智能肯定会犯人类永远不会犯的错误,我认为我们需要在它冲淡知识和用户参与度之前决定如何处理它。 $\端组$
    – 华丽的
    评论 2023年5月15日6:52
  • 1
    $\开始组$ 虽然你的对话真的说明了我们如何在GPT的答案中引入严重的偏见,但我不确定如果你问:“我们能做些什么来缓解堆叠交换网站上AI生成内容的问题吗?”而不是“用特殊标签标记人工智能生成的内容是一个好主意吗?”以及聊天引擎的一般二分法,聊天引擎不断告诉你他们没有任何情绪或意见,但同时编程使你觉得自己在和一个真正的人说话。) $\端组$
    – 华丽的
    评论 2023年5月15日6:54
  • $\开始组$ @太棒了真有趣!我只是试着用其他(不那么有偏见的)词,但即便如此,答案在内容上基本上还是一样的!简而言之:AI明确建议给AI生成的内容贴上标签(只要你重视可信度和一致的质量)。 $\端组$
    – 针状的 国防部
    评论 2023年5月15日9:43

3个答案

重置为默认值
4
$\开始组$

感谢您的深思熟虑和深入调查,我花了一些时间来处理这一切。这一切都是相对较新的,所以期待未来的发展,其中一些可能会随着时间的推移而过时。

幸运的是,我们已经有了一些网络指南来帮助我们概述网站的策略。正如你所说,他们迄今为止选择了不在全球范围内禁止人工智能生成的内容目前。

遗憾的是,到目前为止,识别和过滤的负担落在了人的身上;巧妙的社区成员已经构建了帮助实现这一点的工具,但网站中的集成仍然缺乏,因此仍然需要一些手工工作。

在确定某些内容是否为人为生成时,在可接受的误差范围内,也存在确定性问题。

不知怎的,标记、标记或发送人工智能生成的内容,无论是可疑的还是确定的,似乎都是正确的做法。

据我所知,目前还没有内置或本地的方法来实现这一点。我们可以使用有限的内置适度标记子集标记问题,但这些标记大多是暂时的,用于标记需要操作的内容,而不是长期分类系统。我们可以创建任意内容标记,我们可以为内容,但我们还不能标记答案,答案将是最理想的标记候选。

在这之前,我们可能应该定义一套指导原则,在没有专用标记系统的情况下,如何在我们的社区中处理此类内容,以及如何标记它。

有人建议,严重依赖人工智能生成内容的答案不应为海报赢得声誉,我同意这一点,但在实践中更难实现,因为这可能需要平台维护人员的开发(这可能会发生,也可能不会发生)。

这至少需要一个用户标记AI生成内容的系统,一个由其他用户审查此类标记的系统,以便他们能够验证声明;如果得到确认,还将建立一个系统,对此类帖子进行视觉标记(通知潜在读者),并在内部阻止海报赢得声誉。

现场指南已经制定要求复制内容的属性大多数人认为人工智能生成的内容既不是海报的原创作品,也不是创建语言模型的程序员,因此对于大多数内容都不是由人键入的帖子,应该没有什么不同.

一些人建议,人工智能生成的内容应该被阻止引用并正确归因,如:

由ChatGPT生成人工智能帮助生成的帖子是否应标记为人工智能生成的内容?

作为人工智能语言模型,我没有个人意见。然而,从专业的角度来看,建议AI生成的帖子应明确标记为AI。这一点很重要,因为它可以帮助用户理解,他们正在交互的内容不一定是由人类专家创建的。明确内容由人工智能生成可以防止潜在的误解和误解,并有助于与用户建立信任。此外,标记人工智能生成的内容也有助于提高机器学习系统的透明度,随着这些系统变得更加先进和普遍,这一点变得越来越重要。

实际上,执行这项政策可能很难,倾向于发布AI生成内容的用户可能最有可能不了解规则,忽视规则,或试图偷偷绕过规则以获得声誉。合规性很可能需要社区的帮助,以标记和审查潜在的违规行为,如果在一定范围内得到确认,则编辑所述内容,以明确其可能由AI生成。

目前,我们可能不得不依赖内置标记系统,并要求用户用以下标记这些帖子:

需要主持人干预

上述未列出的问题需要主持人采取行动。具体而详细!

并要求用户键入以下内容潜在AI生成内容.

$\端组$
2
  • $\开始组$ 关于AI生成内容的单独标签,应该认为这可能被理解为邀请收集RP,并可能鼓励此类帖子的积累。 $\端组$
    – 针状的 国防部
    评论 5月3日18:58
  • $\开始组$ 没错,说得对。由于我们目前只能标记问题,这也可能会无意中对某个问题产生负面影响,而该问题恰好是由其他用户生成的AI答案 $\端组$ 评论 5月3日21:58
$\开始组$

是的,帖子应该被标记,但我不认为人工智能在某种程度上的帮助或贡献一定是坏事,尤其是当被此类帖子的作者审阅时。

我能理解人工智能或任何未经检查的结构化解决方案产生的奇怪脚本的危险,但从经验来看(在人工智能之前),也有很多帖子在其过程中有很多无意义或功能失常。。。只有阅读或尝试但失败的关注者才能发现发布的帖子。。。因此,他们可能会被标记或否决。

那么,人工智能的这种情况有何不同呢?

或者,如果像现在一样,我发布了ai生成的脚本——它与之前的脚本有什么不同,我会抓取现有脚本或模板的一些部分,并尝试合并到一些函数脚本中?它在某种程度上对我来说是可行的,但对于生成的人工智能脚本,我不确定它的好坏。它与程序员初学者有何不同?

只有投票或标记系统才足以将黄金与垃圾分开。(……作为这个站点上有经验的贡献者,我知道这并不像马库斯0、1、2…所提到的那样,但这就是它在这里的工作原理。)

SE已经使用了标记系统,所以我觉得应该扩展这个标记列表。在我看来,这是一个警告。

这篇帖子的作者可能会被要求扩展他的帖子,解释人工智能如何在他的答案中做出贡献,以便追随者可以决定风险的大小。

关于答案(问题)的有用性/无用性,应自行决定现有的投票/否决系统。

当前警告甚至在你给它一个机会检查答案是否正确之前,感觉就像是在“跑路”。

“ai-generated”标记也为+1。

注:我当前的积分状态,可以及时重新评估:)

$\端组$
4
  • $\开始组$ 我们在波兰有一个电视节目叫做一个错误-一个坦率的摄像头,让专业人士做一件小事,显示出有多少专家实际上非常不专业,无论是因为无能还是不诚实。。。一个有争议的插曲是关于IT修复电脑的。这里的故障是电脑外壳内的电缆连接到错误的位置。争议在于:这不是一个“自然而然”会出现的问题。这是一个“人为”问题,只有当有人故意建立不良连接时才会出现。 $\端组$ 评论 1月29日11:19
  • $\开始组$ 如果说专家无法“修复”计算机,那是不公平的,事实上没有多少经验可以教会他们处理这种情况。想象一下,你使用Python将“点上实例:选择”设置为False,我们很难理解这一点,对吗?当然,我们可以从头开始重新创建节点树,这样就可以工作了,但it技术人员不可能建议更换整个PC机箱。我为什么要写这个?因为人工智能引入的错误与代码中“自然”出现的错误不同,这是一个巨大的问题。。。 $\端组$ 评论 1月29日11:20
  • $\开始组$ 主题很棒,但我不确定这是否是最好的比较。。。我看到每天的新蜜蜂都会因为这个原因寻求帮助——用你的比喻——他们把电缆插错了地方。这是以意想不到的方式完成的意想不到的行动。。。但它会使任何错误成为错误。。。我可以同意,我们面临着另一种错误,我们必须学会识别(或更加敏感),但对我来说,这就是全部。更危险的是,生成复杂的详细解释的胡言乱语需要人工智能几秒钟,而发布需要某人几秒钟,但人工修改需要更长的时间:) $\端组$ 评论 1月29日19:59
  • $\开始组$ 你不会看到新手遇到我描述的那种Blender问题:)就像电缆一样,一些问题根本就不会出现。是的,这是一种新的错误,但无论我是否有权订阅这种错误-如果我看到chatGPT生成的代码,我就是不读。还有另一个原因:我们的大脑以复杂的方式工作:你使用一个词通常不是因为你从字典里记住了它,而是因为你在很多上下文中都见过它。如果你读到幻觉代码,你的直觉就会中毒。很难在评论部分解释。。。 $\端组$ 评论 1月29日21:43
1
$\开始组$

我对此事的看法:

  • 正如OP中所链接的,Stack Overflow彻底禁止GPT内容。
  • BSE不是堆栈溢出;我认为没有一条规则SO策略适用,除非被明确覆盖。
  • 我觉得上述政策过于保守:GPT受到了很多人的赞扬,审查它可能会制造阴谋的气氛。
  • GPT确实是一项了不起的技术;然而,BSE是一个更神奇的地方,它的内容质量极高,人工智能生成的内容不可能与之竞争,因此不可避免地会稀释其价值。
  • 粘贴AI生成的内容而不将其标记为这样是作弊——这就像编写Python代码并说您测试了它,尽管您没有这样做;造成的潜在烦恼不值得SE系统的任何奖励。
  • 该网站的一些用户可能不知道与GPT相关的问题:也许AI生成的内容应该包装在类似于烟草警告标签的警告中:

😥🔫🤖 小心!以下内容是AI生成

GPT输出与训练数据具有类似统计关系的令牌;实际上,这意味着文本似乎有效,似乎自信,似乎逻辑一致等。当人类写文本是为了正确→因此看起来是正确的时候,人工智能写文本是因为看起来是正确→因此通常是正确的。更多阅读:ChatGPT在做什么……为什么它有效?

3只鸡在3天内下3个蛋,因此12只鸡在12天内下12个蛋。

这标志着AI生成内容的结束。低于人工生成的内容👨‍🏫

  • 因为我建议不要审查人工智能,所以可以用否决票来对抗;然而,这些人对否决一个答案的声誉成本感到沮丧。
  • 如果不鼓励投反对票,那么解决方案就变成不投反对票了,不幸的是,这在很多有效答案都有0、1或2个赞成票的情况下也不起作用…
  • 检测人工智能是不可靠的:从技术上讲,人类可以像人工智能一样准确地回答问题,而人工智能也可以像人类一样进行编程。
  • 任何区分人工智能和人类的努力都是具有侵略性的:例如,我们可以强制要求在政治上是不正确的。
  • 即使检测到人工智能内容,也无法对其进行公平惩罚:很容易通过人肉代理进行辩护,人肉代理通过人工智能文本而未披露其为人工智能,这样,无辜的人就会受到惩罚,违法者也很容易逃脱惩罚。
  • 直到现在,我才从D.F.R.的帖子中了解到参考-听起来很合理,我可能从来没有引用过没有署名的人,但最近一个老用户被抓到“从朋友那里”粘贴GPT文本😄 没有受到惩罚,无论是国旗、否决票还是谴责。也许这样做是正确的,因为此类事件很少发生。
  • 如果有人使用人工智能翻译文本怎么办?这就是大多数翻译人员的工作方式深度L,但ChatGPT也可以用于翻译文本。它也可以用来纠正语法,或者在不改变其实质的情况下修改文本的形式。语法也是基于人工智能的。
  • 因此,我认为缺乏对人工智能的归因并不是真正的问题。真正的问题是,答案的作者应该努力验证所提供的信息是否正确,并对哪些部分仍需要确认保持透明。
$\端组$
  • $\开始组$ 原则上,我同意你的一些观点,但我认为必须区分“人工智能帮助生成并由人类修改的帖子”“人工智能生成的帖子未经人类编辑和审查”我认为这是关键区别。在第二种情况下,可以实施早期检测机制,然后由社区在审查中进行检查。其本质是标记这些明显未经检查的AI垃圾贡献。 $\端组$
    – 针状的 国防部
    评论 2023年5月15日9:48
  • 1
    $\开始组$ @虽然我同意,但我怀疑有人能肯定胡说八道不是人类制造的……毕竟,在前人工智能时代,我们有很多这样的东西。 $\端组$ 评论 2023年5月15日9:50
  • 2
    $\开始组$ 是的,过去和将来都会有这样的贡献者:D。。。但在这种情况下,我真诚地相信像你这样热情的社区成员的胜任评估! $\端组$
    – 针状的 国防部
    评论 2023年5月15日9:58

你必须登录来回答这个问题。

不是你想要的答案吗?浏览标记的其他问题.