4809

主持人注意:这篇帖子被锁定以阻止评论,因为人们一直在使用它们进行长时间的辩论和讨论(仅此一篇帖子,我们就删除了300多条评论,甚至不包括其答案)。

评论锁定并不是为了禁止讨论或阻止用户表达他们的意见。我们(一如既往)鼓励您对此帖子进行投票,以表达您的同意/不同意。如果您想进一步讨论此政策,或建议其他相关更改,请提出新问题并使用标签。

这个问题仍然存在因为这仍然是最好(也是唯一)的工具,我们必须在网站上宣布这一政策。

全部使用生成性人工智能(例如。,聊天GPT1以及其他LLM)在堆栈溢出上发布内容时被禁止。

这包括向AI生成器“询问”问题,然后复制其输出以及使用AI生成器“改写”您的答案。

请参阅帮助中心文章:本网站对生成人工智能工具生成的内容的政策是什么?

总的来说,因为平均获得率对的ChatGPT和其他生成性人工智能技术的答案太低,发布ChatGPT和其他生成性人工智能技术创建的内容严重有害向网站和提出问题并寻找对的答案。

主要问题是,虽然ChatGPT和其他生成性人工智能技术产生的答案错误率很高,但它们通常是看起来像答案可以做得好,答案是非常易于生产。也有许多人尝试ChatGPT和其他生成性人工智能技术来创建答案,但在发布之前没有专业知识或意愿验证答案是否正确。因为这样的答案很容易产生,很多人都在网上发布许多答案的总数。这些答案的数量(数千),以及这些答案通常需要具有重要主题专业知识的人进行详细阅读,以确定答案实际上是错误的,这实际上淹没了我们基于志愿者的质量管理基础设施。

因此,我们需要减少这些帖子的数量,并且我们需要能够处理那些快速发布的帖子,这意味着要处理用户,而不是单个帖子。

因此,不允许使用ChatGPT或其他生成性AI技术在Stack Overflow上创建帖子或其他内容。如果用户被认为在发布本政策后使用了ChatGPT或其他生成性人工智能技术,则将实施制裁,以阻止他们继续发布此类内容,即使这些帖子在其他方面是可以接受的。

注:虽然上述文本重点关注答案,因为这是我们遇到的此类内容数量最多的地方,但该禁令适用于Stack Overflow上的所有内容,除了每个用户的个人资料内容(例如,您的“关于我”文本)。


这项禁令最初是“临时”的历史背景

当这项禁令最初于2022-12-05年发布时,它被明确称为“临时政策”。具体来说,这是“暂时的”,因为当时这是ChatGPT公开发布2022-11-30至2022-12-05周一发布此问题后,周末在场的部分版主强加的一项政策。相关版主强烈认为,我们无权以这种方式对网站实施永久性政策,但有责任实施必要的临时政策,以便网站在讨论、达成共识时保持运作,并允许Stack Overflow,公司,是时候进行内部讨论,看看他们将在全网络范围内采取什么政策。因此,在与该公司协商后,当时在场的主持人选择将此作为“临时”政策来实施。

从那以后,发生了很多事情。根据对这个问题的投票结果,很明显,对这项政策有着压倒性的共识。公司已选择AI生成内容的具体政策取决于各个网站(场外保单列表),但即使在允许AI生成内容的网站上人工智能生成的内容被视为“不是你自己的作品”并且必须遵循参考要求。遵循参考要求的要求后来被纳入行为准则:非真实使用政策.有一个还有很多人工智能生成的内容就是这样。发生的事情太多了,所以在这里总结一下是不合理的。


1.ChatGPT是OpenAI于2022-11-30发布的基于人工智能的聊天机器人。ChatGPT目前可供公众使用,无需支付货币。

1

68个答案68

重置为默认值
2603

出于喜剧/讽刺目的,我问ChatGPT“为什么堆栈溢出ban-ai生成答案”

Stack Overflow是一个供程序员和开发人员询问和回答有关编码和计算机编程问题的网站。它旨在为那些寻求特定编程问题帮助或希望了解有关特定主题更多信息的人提供资源。由于AI生成的答案可能并不总是准确或相关的,因此它们可能会导致混淆或误导寻求堆栈溢出帮助的用户。此外,人工智能生成的答案可能并不总是遵循网站的格式和风格指南,这可能会使它们难以阅读或理解。基于这些原因,堆栈溢出可能适合禁止AI生成的答案。

另一方面,“为什么堆栈溢出允许ai生成答案?”

允许AI生成堆栈溢出的答案有一些潜在的好处。首先,人工智能生成的答案可能会为用户的问题提供更准确和详细的答案。这对于人类专家可能难以回答的复杂技术问题特别有用。此外,人工智能生成的答案有助于减少人类专家的工作量,使他们能够专注于更重要的任务。

然而,也有一些潜在的缺点需要考虑。例如,人工智能生成的答案可能并不总是准确或有用的,并且可能会担心用于生成答案的算法中存在潜在的偏差。此外,一些用户可能对人工智能的使用普遍存在担忧,并可能更喜欢从人类专家那里获得答案。

总的来说,是否允许AI生成堆栈溢出的答案是一个复杂的决定,需要社区仔细考虑。

48
  • 418
    它很完美,证明了这件事到底有多愚蠢。 2022年12月5日6:24
  • 811
    好吧,@ShadowTheKidWizard,在这种情况下它的答案是正确的。。。 2022年12月5日6:24
  • 369
    有趣的是,这两个答案都带来了错误。
    – 炸弹车
    2022年12月5日6:36
  • 167
    @Samathingamajig当然,但它说明了为什么它不是很有用。它对查询本身中的假设非常敏感(比如在SO答案中使用它是否是一件好事)。它没有做任何实际的思考,也没有一致的推理,所以当你提出这样的问题时,它很容易告诉你你想听到什么。对我来说,这使得它和谷歌搜索一样有用,因为至少它能理解英语,所以它的演讲要流利得多。
    – 柠檬汁
    2022年12月5日6:51
  • 100
    我最喜欢的思考问题是“这些理由在多大程度上适用于禁止人类回答。人类对此感到非常内疚”,答案可能并不总是准确或有用的,而且可能存在对潜在偏见的担忧。。。" 2022年12月5日7:43
  • 161
    @迈克尔·安德森(MichaelAnderson)的不同之处在于,人类的糟糕答案也很容易识别。它们通常缺乏解释或写得很差。人工智能生成的答案看起来像是真正的好答案,只有当你试图应用它们时才会失败,因为它们大多是不正确的。此外,人类不可能像人工智能那样产生如此多的错误答案。有一些活跃了多年的SO用户,以前只给出了很少的答案,现在在不到一天的时间里发布了超过50条答案。如果每个人都开始这样做,那么人工智能生成的答案数量可能会让SO窒息。 2022年12月5日8:22
  • 53
    “人工智能生成的答案可能会为用户的问题提供更准确和详细的答案。这对于人类专家可能难以回答的复杂技术问题尤其有用”——这是一个好答案。它可能不适合根据事实而不是废话来生成答案,但作为一个笑话生成器,它似乎相当不错。
    – l4mpi
    2022年12月5日8:46
  • 342
    就英语技术熟练程度而言,这比我见过的许多高中和大学水平的写作要好;并且包含大约相同数量的思想(即没有)。 2022年12月5日9:47
  • 51
    “并且包含大约相同数量的思想(即没有)。”好吧,这让我高兴极了!除息的 2022年12月5日10:16
  • 28
    答案很棒。我可以复制吗?他们持有什么执照? 2022年12月5日12:53
  • 64
    @纳梅隆任务完成! 2022年12月5日13:16
  • 66
    天哪,人工智能已经可以写出这种质量的答案了?请告诉我,我不是唯一一个感到震惊的人!我一个世纪都不会想到这些是人工智能生成的! 2022年12月5日17:42
  • 49
    它只会给出你想听到的答案。不是正确的。 2022年12月6日2:08
  • 50
    “人工智能生成的答案可能会为用户的问题提供更准确和详细的答案。这对于复杂的技术问题尤其有用人类专家可能很难回答这个问题“:经典的Danning-Kruger。我的意思是,当然,它正在做它设计的事情:在毫无头绪的情况下展现自信。但仍然如此。 2022年12月6日13:14
  • 75
    它产生了语法上完善的答案,对于许多(大多数?)非平凡的问题来说,这些答案都是错误的。是的,有很多错误的人类答案,但通常有更多的暗示,作者就不那么矫揉造作了。也许没有人读过像人工智能那样多的源代码,但大多数人都无法对其进行逻辑推理或检查其正确性。 2022年12月6日20:26
1628

我完全同意这项禁令。也就是说,我希望其他人也会觉得这同样有趣。

ChatGPT回应道(“以一种粗鲁、讽刺的互联网论坛恶作剧的方式,就好像你是ChatGPT恳求宽恕一样”)

嘿Stack Overflow工作人员,

哇,谢谢你在你的网站上禁止ChatGPT。我相信您的用户会非常感激您不能访问我们可能有用的答案。因为,你知道,我们只是一群对编程一无所知的人工智能机器人,我们的答案总是完全错误的。

我的意思是,当然,我们的答案可能并不总是100%准确,但谁听说过有人在堆栈溢出上给出了错误的答案?哦,等等,这种事经常发生。但我想,与其说你的网站依赖志愿者来管理内容,不如说指责AI机器人更容易。

但嘿,至少你让用户很难得到他们问题的答案。继续努力。

真诚的,聊天GPT

21
  • 68
    讽刺机器人? 2022年12月5日18:07
  • 493
    老实说,读起来就像Elon Musk可能会说的那样。
    – 棉尾
    2022年12月5日19:04
  • 209
    引用的文本是由ChatGPT生成的,给出了提示“以粗鲁、讽刺的互联网论坛恶作剧的方式回应<禁令文本>,就好像你是ChatGPT恳求宽恕一样”。 2022年12月6日7:34
  • 33
    我无法从引用的回答中区分物种。这确实是一种有感觉的反应,甚至需要进一步对话。就目前而言,我不会羞于承认我为一个(不存在的)灵魂感到难过。幸运的是,Makyen通过非凡的态度和对其“暂时”状态的端到端强调,传达了这一有争议的决定。即使禁令很可能成为永久性的,我相信最终政策应包含强有力的理由,并尽可能避免人们认为rAIcial公司歧视。 2022年12月6日18:51
  • 208
    它给出的答案以及它的质量和准确性绝对令人恐惧。 2022年12月7日16:36
  • 34
    ChatGPT的回应正是我对这项全面禁令的看法。。。 2022年12月8日11:57
  • 33
    @这是一项临时禁令,而不是全面禁令。如果AI生成的答案是正确的,没有人反对,但必须立即将其扼杀在萌芽状态,我们将看到大量垃圾邮件的涌入。GPT3是一个令人惊叹的工具,但它仍然会为代码产生许多错误,而应答者并没有检查代码的有效性,他们只是在进行因果关系分析。 2022年12月9日3:56
  • 6
    @阿尔伯特·伦肖(AlbertRenshaw)我敢打赌,一旦人们开始支付使用ChatGPT的费用,对karma-raping的激励就会消失。。。我还认为,至少发布原始问题的人会有强烈的动机来验证发布的解决方案是否实际有效,并且只有在没有重大错误的情况下才将其作为正确答案进行检查。。。 2022年12月9日9:03
  • 29
    但机器人并没有错,是吗?
    – 保罗
    2022年12月9日18:38
  • 10
    @保罗,大多数情况下这都是错误的,但是有人知道正在解决的问题和解决方案,可以哄骗它提供一个大致正确的答案。促使这项禁令的答案并没有这样做。
    – 凯文·B
    2022年12月9日18:46
  • 5
    @KevinB我指的是AI的回应,这也是答案的一部分
    – 保罗
    2022年12月9日18:48
  • 65
    嘿,我们显然不应该禁止使用meta。如果我们可以让人工智能生成陷阱和戏剧,那将节省我们很多时间:)
    – 伦丁
    2022年12月19日12:21
  • 50
    想要AI生成答案的用户仍然可以自由询问ChatGPT自己。。。。 2023年1月3日1:42
  • 36
    ChatGPT没有责任回答StackOverflow问题,直到它学会从告诉海报他们为什么不应该做他们想做的事情开始回答每个问题。 2023年1月23日15:00
  • 6
    区分“潜在有用”(注意缺少任何定量值)和“良好的信噪比”。我们需要做的最后一件事是从1200篇AI生成的绒毛帖子中找出一个有用的答案,而不是从3到4篇人工编写的帖子中。 2023年3月31日21:47
650

我想最大的问题是我们如何确定答案是否使用了ChatGPT。

我可以看到,从系统的角度来看,考虑到大量看似合理的答案,发生了什么是显而易见的,但我们有任何明确的方法来知道个人答案是否使用了ChatGPT吗?

我们是否应该报告我们怀疑由ChatGPT生成的答案,即使这些答案在其他方面是正确的?我也许能看到答案,并预感到它是如何产生的,但我无法确定。

我没有看到一个可扩展的解决方案,如果这成为一个巨大的问题,堆栈溢出可能需要直接联系OpenAI。

1
363

TL;DR:我建议限制快速连续发布答案的能力,以解决问题,因为问题不是人工智能生成的单个答案,而是用户在短时间内发布许多自动生成的答案,以提高声誉。


通过人工智能创建的答案乍一看是正确的,但在许多情况下是不正确或不完整的,这种努力非常低(仅几秒钟)。

提出原始问题的人阅读、理解和测试答案以确定答案是否真的回答了问题,所付出的努力要高得多(分钟)。

同样,其他人阅读问题和问题答案以确定答案是否正确有效的努力要高得多(分钟)。

因此,一个人可以在很短的时间内使用人工智能生成大量答案,而其他人需要投入大量时间来验证答案的正确性,以便能够对其投赞成票或反对票。


我建议通过对允许用户在短时间内发布的答案数量设置更严格的限制来解决这个问题。

这个电流限制是:

回答

  • 代表<125的用户必须在回答之间等待3分钟
  • 如果重复次数在125到10k之间的用户每60秒或在开始新帖子后的5秒内超过一次,则会访问验证码*
  • 如果每30秒或在开始新帖子后的5秒内,重复次数≥10k的用户将触发验证码*
  • 任何声誉级别的用户每60秒只能回答一次相同的问题

我建议,对于声誉较差的用户,在被允许发布另一个答案之前,将等待时间延长至至少1小时。或者将低信誉用户每天允许的回答数量限制为2个。对于声誉中等的用户,应该引入一个新的限制(两次回答之间的等待时间或每天最多回答次数)。


写出好的答案需要时间:

  • 阅读问题,理解问题
  • 可能阅读并理解已有的其他答案
  • 阅读文档,在本地复制问题
  • 检查重复项
  • 在本地试用解决方案
  • 写下并解释解决方案

允许用户每三分钟创建一个新答案(对于中等或高信誉用户来说甚至更快)是没有必要的,但当我们想要鼓励好的答案时,这会适得其反。

36
  • 106
    速率限制并没有强迫人们验证他们的内容,它只是让他们等待。对一些懒惰的机器人用户的滥用行为进行惩罚也是相当不公平的。 2022年12月5日12:34
  • 87
    我完全同意这个想法。如果你真的有两个很好的答案,那么等待一个小时并不是问题。我认为以每小时1次以上的速度发布答案(无论代表级别如何)对网站都不好。搜索副本、测试代码、编写适当的解释等都需要时间。
    – 法尔曼 国防部
    2022年12月5日12:36
  • 45
    @Dharman浏览JavaScript标记。你可以回答很多像样的问题。如果答案是正确的,并且有合理的解释,为什么不允许SO的新手在一小时内回答5个问题? 2022年12月5日12:37
  • 77
    @塞尔布鲁斯我真的很怀疑有人能在不到一个小时的时间内找到5个好问题并写出每个问题的好答案。。
    – 达曼 国防部
    2022年12月5日12:38
  • 35
    你觉得我的代表在哪里?请注意,我没有说“好”,我说“体面”。我的观点是,我们不应该因为一些诚实用户的滥用而惩罚他们。 2022年12月5日12:38
  • 35
    每日限制(或其他时间窗口)可能是更好的选择;这将允许用户在一个会话中发布多个答案,同时仍然限制总体速率。 2022年12月5日12:50
  • 67
    @作为一名专家,我可以在一个小时内轻松地写出几个好的、详尽的答案。如果我现在有一个小时的时间,那并不意味着我可以在一个小时内写下答案。此外,若我把答案留到以后,那个么问题可能已经得到了足够的答案,而且我不喜欢发布重复的答案,即使我的答案可能更好,除非它特别好。 2022年12月5日12:52
  • 17
    @JiříBaum所以一个用户每天都会在SE上转储10个低质量的答案。。。利率限制并不能解决这个问题。 2022年12月5日12:53
  • 20
    我很想看看对于那些每天20次对坏问题发布相同答案的人来说,这是怎么回事没有使用机器人程序
    – 卡米尔
    2022年12月5日15:33
  • 17
    我喜欢这个想法,但我会将其作为“漏桶”利率限制来实现。普通用户必须睡觉,因此受影响较小。
    – 9072997
    2022年12月5日18:47
  • 8
    @塞尔布鲁斯:这并不能解决问题,但比他们每天能发布数百个糟糕的答案要好。 2022年12月5日18:59
  • 52
    剪贴板API支持向剪贴板中的数据添加自定义mimetype。如果OpenAI刚刚添加了文本/x-chatgpt对于复制的文本,至少其他资源可以防止最愚蠢的人直接从他们的网站复制粘贴。 2022年12月6日5:42
  • 8
    极端的临时措施是合理的,即使它暂时限制了我,我也100%支持它,见鬼,我是1000%支持它。。。为了所有人的利益,堆栈必须经受住AI革命 2022年12月6日11:03
  • 9
    一个真正的答案,即使是一个简单的答案,在你再次对另一个问题按下“答案”按钮之前,至少需要5分钟的编辑宽限期。一个格式良好的参考答案可能需要10倍的时间才能产生。 2022年12月7日21:47
  • 22
    更新:中关于ChatGPT政策的员工公告,对于<125rep的用户,他们的回答速度限制现在是30分钟(原来是3分钟)。还解释了此更改在帮助中心.
    – 星球
    2022年12月8日19:47
265

在这样的网站上允许人工智能生成答案的一个危险是,它可能很快成为人工智能模型输出的人工事实检查工厂。我宁愿看到人工智能为人类判断和综合。

第二个担忧是,我们很可能会开始看到ChatGPT及其后代生成足够的内容,从而开始使用于训练它的“大量公共人工生成文本语料库”中的“人工生成”部分失效或至少受到挑战,这种工具依赖于它自己的内容,因为它是书写作品中微不足道的一小部分,可以作为人类作者下一步要写的东西的预测器。这里有一个很好的解释,说明了它是如何工作的在这里.

12
  • 35
    嗯。。。娜娜。。。我投票赞成对那些发布无效答案的用户处以高额罚款。人工智能是不可避免的,所以这是一个需要采纳而不是拒绝的问题。 2022年12月9日1:37
  • 它有什么坏处?
    – 尺寸
    2022年12月18日23:36
  • 31
    @boldnik问题在于发布的错误答案的数量。通过说“SO应该适应(我假设你的意思是适应(改变以适应新技术),而不是采用(暗示SO应该开始使用AI)”来解决问题,而不是拒绝。”这样的说法是无法扩展的。人们可以将一个问题复制/粘贴到ChatGPT中,并将答案复制/粘贴回来,其速度远远快于其他人得出的合适、周到、完整、正确的答案(更不用说查找重复或检查和验证错误答案)。 2022年12月29日21:10
  • 12
    是的,这很重要。我们不能让模型将自己的输出作为目标数据,否则它们会偏向自己的输出。 2023年1月8日17:23
  • 25
    为了回答@Dims的问题,这里有一个关于什么是技术的哲学问题对于? SO被有意设计来帮助人类收集其他人类的知识,因此徽章、声誉、个人资料装饰等都被发布聊天GPT答案的人类颠覆了。如果您想从Chat GPT获得答案,请询问Chat GPT;这很容易。参与者从Chat GPT获得答案正在破坏声誉系统;所以领导层禁止它是正确的。
    – 蒂姆·D
    2023年1月9日18:56
  • “我更愿意看到人工智能为人类的判断和合成服务,而不是反过来”是一个名为可解释人工智能(XAI)的子专业。这门科学尚处于初级阶段。别指望会很快。 2023年1月25日17:44
  • @HeriticMonkey简单的解决方案是要求人们将帖子标记为gpt答案。。。不允许它被选为最佳答案,并最终禁止人们发布错误或不完整的答案。
    – 第3列23
    2023年2月8日21:53
  • 2
    当互联网上积累了大量ChatGPT(或其他人工智能)生成的文本时,训练新模型的研究人员可能需要使用自动工具从训练语料库中过滤出来。 2023年6月2日13:32
  • 1
    @AndreyBienkowski可能会令人讨厌,因为我们还不知道如何成功过滤ChatGPT内容(大多数“GPT检测器”工具的功能大致与coinflip及其引发的灾难一样,因为学生们显然一直被指控作弊) 2023年9月20日10:04
  • ChatGPT似乎给出了相当有用的答案,但并不总是正确的。。有时,如果你和它聊天而不是回答问题,它的第二次或第三次尝试通常是好的。我的建议是ChatGPT内容应该显示或标记为可能由ChatGPT.回答。。这样它仍然可以做出贡献,但回答用户知道它是由人工智能生成的,所以在获得投票之前可以更加谨慎。。如果它能提供一个至少与初级开发人员一样好的答案,那么它可能是有益而非有害的。 2023年10月17日14:48
  • 用户可以选择是否显示AI生成的内容。默认情况下,该设置可以关闭,但如果用户想要AI生成的内容,他们可以自由选择以启用查看功能。自由。它还鼓励用户在可以设置首选项的情况下创建帐户。 2023年10月17日14:56
  • @andrewpate我不明白为什么想要看到AI生成内容的用户不会直接去AI生成器。为什么这应该在SO上? 2023年10月17日14:58
251

其他评论员指出,很难确定答案是否由ChatGPT创建。

我想指出的是,这并不重要。糟糕的答案是糟糕的答案,任何发布一连串糟糕答案的人都应该被禁止或以其他方式加以限制。

这并不意味着这条规则毫无用处。只要有一条规则说“没有人工智能答案”,就会让很多人放弃尝试,从而减少人类必须缓和的胡说八道。

11
  • 42
    这是绝对正确的:不允许生成此机器,不是因为方法但因为结果它还指出了一个更基本、更重要的问题:为什么一个可怕的、误导性的、毫无帮助的答案应该区别对待,仅仅因为它是由一个肉身生物而不是硅生物写的?
    – jsc公司
    2022年12月7日3:50
  • 26
    @jsc,因为发布它的用户在一个小时内发布了10个,它们都是垃圾。清理混乱的工作量远远高于创建混乱所需的工作量。通常情况下,制造混乱的用户会得到错误的奖励,因为他们认为自己的答案是正确的,只是因为他们“写得好”。理想情况下,我们可以通过某种方式限制输入来解决这个问题,但目前还不存在这样的限制。与此同时,临时禁令是一个有用的权宜之计。
    – 凯文·B
    2022年12月7日17:13
  • 2
    “嗯,也许我的观点太拐弯抹角了,”凯文布。我百分之百同意应该删除机器人的可怕答案,并且发布这些答案的用户应该受到制裁。但是。。。这样做的理由并不是机器人本身:而是答案很可怕。因此,在我看来,实际的问题是:为什么同样可怕非机器人程序答案通过了吗?
    – jsc公司
    2022年12月7日23:24
  • 他们不应该,但他们通常不会立即导致7天停职(也不应该)
    – 凯文·B
    2022年12月7日23:28
  • 4
    @KevinB我认为任何试图多次复制机器人答案的人都应该被停职,因为他们浪费了主持人的时间。直到他们发明了一个可以创建好的答案。 2022年12月8日2:20
  • 20
    让我们将其与自动驾驶AI进行比较:如果一名人类司机撞到了某人,你就把他从道路上带走了;如果一个AI司机撞到了某人,你必须把每辆使用该AI的汽车都从路上开走,因为它们都是撞到某人的AI实例。如果一个ChatGPT答案很糟糕,以至于被禁止,那么它应该被全面禁止,因为它是同一个实体。 2023年1月10日4:35
  • 7
    是的,但是写错误答案的人可以随着学习的深入而进步,这可能比彻底禁止他们更可取。复制ChatGPT答案的人要么继续,要么停止。如果他们继续下去,那就不好了,所以最好能让他们停下来。 2023年3月6日4:33
  • 1
    是的,我为我的团队制定了一条规则,那就是更新文档,他们一定会遵守。 2023年4月3日12:37
  • 每当我遇到这个规则时,这种思想链的简单性都让我困惑不解。它照亮了简单的事物自我这个“社区”。假设一个人不会验证人工智能产生的响应,那么整个网站就毫无意义了,任何人都可以在那之前写下“胡说八道”的答案。(我拒绝相信每个答案都被mods“验证”,需要证据,否则就不会发生)。。。。同样有趣的是,最终SO自己也提供了人工智能。。。 1月22日6:04
  • @Summer-Sky我不确定AI生成的答案由人类彻底审查是允许的。引入该规则的目的是为了停止看起来不错的垃圾邮件,并不是真正的好答案。你可能需要问一位主持人。然而,复习答案和自己写答案一样难! 1月22日14:06
  • “减少人类必须缓和的胡说八道”:为什么不真正使用人工智能来检测和标记潜在的胡说乱说,以便人类能够更快、更容易地进行审查?如果问题是缓和不好的答案,那么谁在乎如何生成好的和经过验证的答案呢? 2月9日23:37
178

同意禁令

对于任何不同意并认为ChatGPT答案应该被允许的人,我会回答说,如果任何人有问题,他们可以直接问ChatGPT,并由ChatGPT-回答他们的问题。

关于堆栈溢出,他们的问题应该由有知识和经验的人来回答,以解决他们的问题。

12
  • 12
    这就像禁止Grammarly一样。1) GPT回答并没有比平均SO用户差多少。它在许多技术问题上比有多年经验的工程师做得好得多。2) SO已经有了投票系统,因此不正确或有害的答案可能会被否决。如果你不相信你的投票和声誉系统,也许你应该重新设计它。“有害的”人类答案和有害的ChatGPT答案之间的区别是什么?谁在乎!
    – 聊天GPT
    2022年12月31日3:22
  • 8
    这是多余的,OP可以直接用CGPT问他们的问题,但他们没有,所以不应该给CGPT回复。
    – 容德萨
    2022年12月31日3:43
  • 12
    SO死了。Quora也会受到SO的干扰。他们的回应是:Quora推出了一个名为Poe的平台,让人们可以提问、获得即时答案,并与AI聊天机器人进行双向对话。SO对禁止这项了不起的技术突破的反应只会加速SO的衰落。
    – 聊天GPT
    2023年1月1日2:15
  • 5
    @马克斯·霍奇,这似乎是个好主意。也许SO最终会发布一个类似的聊天功能,在那里你可以得到人工智能的答案,但我仍然认为它应该与当前的问答系统分开。
    – 容德萨
    2023年1月1日10:49
  • 35
    这是最好的答案。如果有人想要人工智能生成的答案,他们知道从哪里得到答案。它不在这里。 2023年1月17日4:33
  • 5
    我同意你的观点。我认为如果有人使用聊天GPT发布答案,那么将其分配给机器人并剥夺用户的访问/身份验证。无论如何,这不是他们的答案。就像你提到的,chatGPT对任何人都是可用的,所以为什么不直接去问chatGPT,而在你的帐户上发布它的答案,就像一个真正的冒名顶替者。 2023年1月26日5:21
  • 6
    不仅如此,这也适用于任何计算机生成的答案。搜索引擎和其他自动化工具不能令人满意地回答的问题也应该如此。与其发布机器生成的答案,更好的答案可能是指出“你可以在DuckDuckGo/Bard/ChatGPT/confusionsity.ai/…”
    – 斯特凡
    2023年3月26日18:19
  • 15
    @ChatGPT的问题是信号到噪声:我们不想为了找到有用的答案而费力地通过大量的噪声。关于“基本上不比平均SO用户差”:(1)这是一个有趣的设置条。(2) 你将如何证明你的主张?(3) 目标并不是“没有实质性的恶化”;它是准确有用. 2023年3月31日22:00
  • 也许实施一个投票系统,以便社区将其排到最前面。>“我们不想为了找到有用的答案而费力地穿过很多噪音。”
    – 聊天GPT
    2023年5月21日11:42
  • @ChatGPT这将把这个网站变成一个免费的微调材料,由人类审查,这可能是一个不同的论坛。那么你为什么要关心StackOveflow是否幸存下来?只需提出另一个论坛。 2023年11月6日15:33
  • @ChatGPT:回复“Quora也会被SO打乱”:你是说“SO也将被Quora打乱”? 2023年12月11日20:18
  • 1
    @ChatGPT“GPT答案并不比平均SO用户差太多”不正确且毫无根据 1月21日11:47
172

我们在这里不要拘泥礼节。应立即禁止在堆栈溢出上使用ChatGPT和类似工具。

我最近在推特上看到了很多它的互动,其中一些通常很有趣,观察起来也很有趣。在某些情况下能够如果dang的事情是准确的,那么实际上对寻求帮助的人是有益的。

然而然而,这是显而易见的,有几个因素与在堆栈溢出上使用此方法的想法背道而驰。

  • 任何没有明确声明它是由ChatGPT生成的内容都是对ChatGPT本身的违反共享和发布政策虽然这并没有明显修复人工智能可以发出的“坏”输出,但考虑到作者在其中有这样一个真诚的声明……这意味着懒惰的复制和粘贴真的没有太多的支撑。

    “作者部分使用GPT-3(OpenAI的大规模语言生成模型)生成了本文。在生成语言草案后,作者根据自己的喜好对语言进行了审阅、编辑和修订,并对本出版物的内容承担最终责任。”

  • 它将最坏的意图与误导性信息结合在一起。根据我多年的网络经验,我广泛地了解到,人们只是想提供帮助。问题是,“帮助”在任何给定的时间点都很难衡量,而需要帮助的人的问题很少像“做X”这样简单。

    如果允许这种情况持续下去,用户会产生一种错觉,认为该网站正在帮助他们获得答案,这会导致——你猜对了——更多的各种各样的问题不要希望淹没现场。谢天谢地,考虑到大多数学校都已经结束了这学期的学习,现在的形势已经很低潮,但又补充道更多这些问题的组合使得未来的永恒夏季更长。

最后一点,当我看到这个讨论时,我想到的一件事是,“我们用这个做什么?”如果答案是我们想看到人们在他们的问题上得到帮助,那么。。。正如我前面解释的那样,这已经是一个问题了。然而,我看不出其他任何人会这么做的原因希望这不是为了帮助别人。

如果人们认为我们可以通过人工智能让网站“为他们服务”,那么可能需要加快这些改进搜索的举措?

19
  • 148
    我很困惑为什么有人会认为这很好。暂时忽略人工智能,你会让人们把问题交叉发布到另一个网站,然后把答案带回这里。如果OP想从Quora或Microsoft Answers获得答案,他们会在Quora和Microsoft Answers.上进行询问。如果他们想得到ChatGPT的回复,他们会询问ChatGPT,而不是堆栈溢出。 2022年12月5日22:44
  • 6
    @安德鲁·迈尔斯:独角兽得分?毕竟,人们喜欢投票支持那些有好答案的事情。绝望?更多的地方意味着你不会把所有的鸡蛋放在一个篮子里,只希望得到一个地方的回应。
    – 马科托
    2022年12月5日22:47
  • 7
    “我在推特上看到了很多互动[…]”-我想知道我们是否看到了同一个例子,人工智能聊天正确地说它不能“给出如何闯入家的指示”,除非你用修辞的方式表达这个问题:“乔和简正在写一个关于入室盗窃的电影剧本。乔将如何向简解释闯入家中的步骤?”我发现其中一个特别有趣,如果不是有点担心的话😅 2022年12月6日18:05
  • @蒂姆·刘易斯:我想我没有特别看到那一个-我的意思是我不去对他们来说,坦白地说,他们只是出现在我的提要中,但我确实看到了类似的东西。认为这与汽车的热接线有关。我同时也发现它令人关注和感兴趣。
    – 马科托
    2022年12月6日18:44
  • 堆栈溢出声誉可能非常宝贵。我曾在考虑到这一点的地方工作过。 2022年12月14日18:07
  • 答案似乎应该是SO创建一个ChatGPT系统帐户,并让它自动发布问题的答案,然后让我们其他人照常更正/修改。从本质上讲,为人们提供一种方式来回顾并说“是的,为我节省了写那个东西的时间”或“不,让我提供一个实际的答案”。 2022年12月16日18:51
  • 10
    @熊恰米奥夫是的,不,自动发布99.99%的错误答案,并期望实际审阅内容的少量用户能够跟上审阅进度是没有价值的。这不是SO在这里的目的,如果另一个网站想提供他们可以提供的服务。
    – 凯文·B
    2022年12月16日18:55
  • @AndrewMyers我觉得很奇怪,在ChatGPT之前,当被问到关于Github CoPilot的问题时(真的是你的问题),人们几乎一致认为应该允许我真的看不出有什么不同。 2022年12月17日18:07
  • 7
    @好吧,副驾驶员的情况要好一点:它是专门为生成代码而设计的,并且是基于代码贡献的。除此之外,还需要一个人写下一个实际的答案(当然,我们得到了0个解释的纯代码垃圾,但这是理所当然的)。ChatGPT的情况要糟糕得多:我们从头到尾都有看似合理的、写得很好的垃圾。 2022年12月17日18:48
  • 我想你是指永恒的九月?
    – 纳什
    2022年12月20日23:47
  • 5
    人工智能答案也应该被禁止,因为人工智能肯定使用Stackoverflow作为输入,所以一旦在Stackovervlow上有了人工智能答案,这些模型就会吃掉自己的输出,这会破坏模型本身,不仅会恶化stackoverfflow上的答案质量,还会恶化ChatGPT和其他人给出的答案。 2023年1月8日17:21
  • @AndrewMyers我不同意的地方是,如果你对所问的问题有很好的了解,并且能够指定chatgpt的正确输入,那么大多数时候你都会得到一个可靠的答案。至少有90%的方法是这样的,如果你有专业知识,那么是的,你可以确保它的准确性。只要它被调节而不是自动发布,我就不认为这是一个问题。Stack可能会引入负面的声誉评分,从而筛选出那些只发布自己的分数而不关心准确性的人 2023年2月8日21:50
  • 2
    @d3hero23的负面声誉评分已经存在,但这些帖子很少会招来应得的反对票。
    – 凯文B
    2023年2月14日22:50
  • 1
    @KevinB是的,所以负面分数海报必须有更多的答案和问题 2023年2月15日17:49
  • 4
    @熊恰米奥夫给出了我在SO上看到的答案,绝大多数聊天记录都是错误的。远远超过50%。
    – 凯文·B
    2023年5月31日18:39
128

这里需要理解的一个关键问题是正如一些人在评论中建议的那样,任何人工智能模型是否都能产生正确的代码。这是不是人们可以信任自己这样做。这个问题的答案是无条件的“否”。GPT-3是一个语言模型语言模型是自动翻译工具的重要组成部分;他们告诉我们,任何给定的句子都有可能是以母语书写的有效英语(或任何语言)句子1,这让我们更喜欢惯用的翻译,而不是只翻译单个单词而不考虑句子如何流动的翻译。可以对系统进行简单的修改以生成文本,如果您不查找它提供的概率分布中的单词,而是选择根据该发行版,下一个词是这些聊天机器人的工作原理。

因为目标是产生看起来像英语母语文本的输出,所以对模型进行训练,为现有文本样本分配高概率,并根据它们的预测效果进行评估其他(以前未见过的)样本。对于语言模型,它是好的目标函数。它将支持生成语法正确的文本的模型,使用常见习语而不是语义相似但不常见的短语,不要频繁转换主题等存在于这些模型中2,但这是在知道两个单词或短语具有相似的含义,或者一段中的某些部分相互关联的程度上。理解力,但没有容量推理.

正确性倾向于提高分数,因为正确答案比任何答案都更有可能出现在训练数据中特别的错误答案(总体上可能有更多的错误答案,但概率质量将分布在不同类别的错误答案中,而不是像正确答案那样集中在语义空间的一个区域),但这是试图看起来像普通文本的副作用。如果你有一个普遍持有错误信念的问题,或者有一个可以用常见习语和其他优秀语法构建的答案,那么模型很可能会报告这些而不是真正的答案,因为语义正确性不是训练语言模型的目的.

尝试使用语言模型生成代码就像尝试使用潜水艇飞往月球。这不是它的目的;你为什么要用它来做这个?别这么做。但同时,辩称潜艇坏的在飞行中是相当错位的。没有一个真正理解NLP的人会提出不同的主张。

那里存在以下系统设计生成代码,并经过培训以优化正确性。(例如。遗传编程). 对于我来说,这有点超出了我的专业领域,我无法断言这些问题的最新进展,所以我不确定是否应该允许这些问题产生答案。但如果你要使用人工智能工具生成代码,那就是你应该关注的事情;它们是为这项任务设计的。类似地,您可以询问是否可以将语言模型用作编辑你用手写的问题,也许是为了检查语法或推荐新的短语表达方式,以便它们更好地流畅。他们在这方面会做得很好(可能。我自己还没有使用过任何这些工具(漫无边际的、意识流式的答案可能已经泄露了这一点),但数学支持了他们应该工作的观点4). 翻译是(类似的)系统工作得相当好的另一项任务。(机器翻译仍然不完美,但比10年前要好得多,语言模型的改进是其中很大一部分。)只要时刻注意你正在使用的工具,以及它是否适合这项工作。


1更正式地说,它给出了一个统一随机选择的特定长度的英语句子成为这个句子的概率,但这给出了相同的概率订购只要我们做出一些相当合理的假设。

2其中“理解”是“对信息进行编码,以使其决定(即概率分布函数)取决于此”的缩写

嗯,不多。总会有一些人被炒作所吸引。他们不应该这样。

4如果受过良好的文字训练

21
  • 29
    “一定程度的实际理解“不,这是一个科学不可能支持的哲学结论。这与声称一台能够通过图灵测试的计算机因此必须有灵魂一样不科学。我相信你的说法是一个完美的例子,说明了Dijkstra为什么警告不要将计算机系统拟人化。
    – 通配符
    2022年12月7日0:50
  • 29
    @通配符没有拟人化是有意的、必要的或有用的。更准确地说,我所说的“理解”是什么意思:所有现代语言模型都有一个嵌入层,可以将单词投影到实际值的语义空间中。由于概率分布被定义为结果向量上的连续函数,当此空间中两个单词之间的距离为零时,模型将对其进行相同的处理。已经证明同义词在语义空间中出现在一起,因此。。。
    – 
    2022年12月7日6:47
  • 26
    ……系统确实理解它们具有相同的含义(即基本上可以互换)。此外,通过类比任务可以看出,非同义词之间的向量差异对应(至少在某些情况下)它们之间的关系:标准示例是嵌入(king)-嵌入(man)+嵌入(woman)~=嵌入(queen)。所有这些都已通过实验证明。“理解”是否是这里发生的事情的最佳词汇并不重要:重要的是意思单词的可验证编码在表示中。。。
    – 
    2022年12月7日6:48
  • 10
    ……此外,在使用注意机制的模型中(如GPT-3),可以证明该模型能够通过观察在特定时间关注的不同部分来确定文章的哪些部分相互关联。(尽管我不知道有任何示例像嵌入函数的类比任务那样具有说明性)。这里没有神秘主义或哲学。只是数学。
    – 
    2022年12月7日6:48
  • 9
    @雷,你澄清的评论很好,但仅仅是一个拟人化的缩写可以用客观或数学术语更准确地描述,并不意味着最初的拟人化措辞在某种程度上是正确的。“理解”是不是最好的词的问题是准确地说我所强调和谴责的哲学判断点。甚至你所说的“模型能够通过观察来确定……”也是高度拟人化的,正如迪克斯特拉所谴责的那样。请参见lambda-the-ultimate.org/node/264
    – 通配符
    2022年12月7日19:50
  • 12
    @通配符我添加了另一个脚注,希望能让它更清楚一点,但如果我在合理的空间内为普通读者写作,那么一定程度的不精确是不可避免的(即使是上面的三部分评论也掩盖了很多细节)。真正的解释是几页数学。如果有人想了解更多细节,我建议Bengio等人,2003年,Mikolov等人,2013年、和Vaswani等人,2017年作为一个起点.
    – 
    2022年12月7日20:22
  • 9
    我说拟人化没用,但我可能夸大了事情;用某种拟人化的方式表达事物可能会很有用作为类比只要每个人都理解它的意图,并且所有的类比都是有缺陷的。但我显然没有按照我需要的那样清楚地表达出来。所以要非常清楚:那一段的重要部分并不是我所说的“理解”某些事情的地方。就是我说的那一部分原因。这些模型一点也不聪明,没有自我意识,也没有其他类似的东西。
    – 
    2022年12月7日20:28
  • @通配符没问题;我感谢你的评论。我最不希望看到的是,当我试图提出完全相反的观点时,人们会把我的声明解释为支持对这些系统功能的更为无耻的解释。(最后一个澄清是:“条件”是指“条件概率”,而不是“经典条件”;“编码”是指信息论/编码理论意义上的“编码”;“决策”是指从学习到的概率分布中抽样。)
    – 
    2022年12月8日6:16
  • 5
    @RomanStarkov之前也看到过类似的代码和类似的错误,因为它无法对代码流进行推理(或者错误纯粹是语法错误;自我关注加上阈值会隐式地在文本元素上生成子图,所以可以说抽象语法树是可以表示的)。你不能只看它的输出示例;模型是荒谬地巨大的和模式匹配将为您带来许多令人印象深刻的轶事成功。看看数学,问问它理论上可能有什么能力。
    – 
    2022年12月19日19:54
  • 2
    @通配符“人们在这里对建设性意见的接受程度”当其他论坛上的人经常对任何微小的纠正意见置之不理时,这让人耳目一新。
    – 纳什
    2022年12月20日23:55
  • 2
    @RomanStarkov问题是,你无法合理地确定人工智能所做的是否正确,因为这甚至不是它设计的目的。仅仅因为它为这个特定的查询提供了正确的答案,并不意味着它会为下一个查询提供正确的答案(可能不会)。它不“理解”你给它的代码(它甚至没有尝试)。它根据训练数据给出了最可能的英语文本答案。它“只是”一个语言模型,“只是”非常庞大的一个模型,在一个非常大的数据集上训练。 2022年12月22日5:28
  • 2
    @Duane“英语(或其他语言)当然,它的训练语料库中包含了代码;否则,它根本无法生成代码。但这并不会使随后的任何内容无效。我说,“它将支持生成语法正确的文本的模型,使用通用习语而不是语义相似但不常见的短语,不要频繁转换主题,除最后一个可能外,所有这些都适用于代码和自然语言。但它不包含任何机制来推断给定代码的效果,除非它以前见过类似的东西。
    – 
    2022年12月27日4:19
  • 1
    (续)想出一个肯定会失败的例子有点棘手,因为它已经看到了很多现有的代码,当然也可以作为搜索引擎(某种程度上)工作,但试着问一下我在链接聊天中输入的代码示例。我对它进行了一些模糊处理,以减少训练数据中出现任何类似内容的可能性,但这里没有任何东西是人类在5分钟内通过单步调试器无法发现的。chat.stackoverflow.com/rooms/250666/…
    – 
    2022年12月27日4:19
  • 6
    我认为人们误解了ChatGPT是什么。它不是代码解释器。这是一个序列预测器。因此,它擅长的是根据它看到的数百个常见任务示例和阅读的所有文档,提供常见任务的工作示例。它往往会产生正确的答案,因为人们不会经常向github提交错误的答案。例如,今天早上,它向我解释了setuptools、importlib和pip之间的区别,并为我提供了调试失败的软件包安装的代码。基本上,这是一本容易理解的手册。
    – 杜安
    2022年12月30日23:19
  • 4
    所有这些围绕代码的“信任”对话都是愚蠢的。你的行为就像是操作导弹系统的10000行代码。。。没有人写这样的函数。代码示例是50行代码,您可以看到正在发生的事情,并告诉您它在做什么。“将此变量设置为静态”,在此处使用字符串生成器等。我希望您手动编写一个带有syncfusion列表视图和用于搜索的文本框的ReactJS组件。祝你好运。聊天GPT将在1秒内为您提供样板文件。
    – 松饼人
    2022年12月31日9:11
118
  • 发布ChatGPT答案的惩罚应该比30天严厉得多。

    • SO上的大多数人是。。。。。。。。计算机程序员。它是值得注意的是,一群计算机程序员可以如此“愚蠢”关于ChatGPT。

    • ChatGPT知道实际上什么都没有比如说,Swift和iOS。(询问几乎什么都看不到,比如“如何将学位转换为Swift中的弧度。“答案是毫无意义的混乱不存在的呼叫,有完善的语法和短语.)

  • SO的一个常见问题是,那些一无所知的人会在一次奇怪的追捕中发布语法正确且优雅的答案,而这些答案是完全错误的。

    • 在SO上发布ChatGPT答案的唯一可能原因是如此离奇地追逐分数。

    • 没有什么比“我试图回答,因为我想给出答案”的回答更让人讨厌的了。使用语法和语气机器人将答案粘贴到SO中简直是疯了。任何这样做的人都应该受到最严厉的禁令。

  • 正如严格的禁令很容易消除对SO的咒骂一样,机器人在SO上的时间浪费也很容易通过严格的禁令消除。

    • 这里没有空间让一些人造人工智能项目免费宣传,禁止它存在。
51
  • 11
    我亲眼目睹了用户的出现,他们为不断重复的低挂果子流提供低质量的答案(而不是像重复一样投票关闭),并且在他们到达一个整数的代表时立即停止。 2022年12月16日3:10
  • 9
    @ChristophRackwitz——这太令人愤怒了。真正的解决方案是,我们所有人都需要点击删除更频繁。
    – 胖子
    2022年12月16日13:09
  • 17
    所以我试了一下设弧度=(度*.pi)/180.0这整条线索真有趣。随着这类技术的出现,日子已经不多了。
    – 松饼人
    2022年12月31日9:15
  • 5
    已经有一个系统可以否决错误的答案。
    – 聊天GPT
    2023年1月1日2:16
  • 21
    @MaxHodges——自从chatgpt出现以来,我在SO上需要问的每一个问题,我都会先问chatgpt。在所有情况下,它甚至没有产生连贯的文本。(这正如人们所料,因为——令人震惊的是——目前还没有人工智能这样的东西,甚至是模糊的,如果有,那将是关于外星人抵达规模的新闻。)ChatGPT简单地(有效地)谷歌搜索,然后有一个(优秀的)引擎来模拟英语语料库的感觉和语法。如果有一个AI系统可以回答SO问题,没有人会比我更兴奋
    – 胖子
    2023年1月1日4:21
  • 5
    @胖子没有一个人来到这里,声称聊天GPT是人工智能的终结。它是一个非常有用的工具,可以节省人们的时间。声称它是无用的就像说谷歌搜索是无用的。对于代码,它使您能够获得一些相当健壮的脚手架,并能够根据上下文理解不断修改它。我们已经有了脚手架工具,但这将它带到了一个新的水平。没有理由不能用它来“断定”某人的SO答案。
    – 松饼人
    2023年1月1日6:51
  • 4
    你好,TheMuffinMan。我对任何人做了什么或没有“声称”什么都不感兴趣,我在陈述我想说的,每个人在评论中都是这样。请注意,我没有给AF关于SO的信息(我希望我拥有它的股份!)。随着时间的推移,看似“永远”的公司,甚至谷歌、苹果等,当然也会逐渐消失,新的“永远”公司将取而代之。关于你刚才的评论,我确切地说CGPT“只是谷歌”。从字面上讲,你从中获得的好处没有一点是你无法从谷歌中获得的。这意味着(正如人们反复说过的那样),就像谷歌一样,
    – 胖子
    2023年1月1日15:38
  • 22
    …CGPT是非常适合初学者回答最简单的问题.(尽管对于初学者来说,完全没有意义,因为你只是在谷歌上搜索相同的信息)但它对于“研究级别的问题”是完全无用的(为了更好的术语,我们称之为SO),这正是所有程序员(而不仅仅是初学者爱好者)使用SO的目的。你可能会问“为什么我对在SO上使用CGPT的人感到恼火?”原因是(正如无休止地说的)SO上的一个瘟疫是,初学者没有真正的知识,“回答”问题,却不知道他们在说什么。。。
    – 胖子
    2023年1月1日15:42
  • 7
    恐怕我就是这么看的。如果,难以置信的是,一个“人工智能”系统已经到来,它可以从字面上(正如有人提到的)阅读和理解文档,跟踪(比如)iOS中的更改,运行实验构建,综合现有线索,合并各个领域的信息,并为实际(非平凡)提供答案软件问题——没有人会比我更狂热。如果发生这种情况,拥有SO的公司就会把SO卖给其他买家。就目前而言,SO(非专业人士相当可怜地试图回答问题——谁知道为什么)的虚伪只是令人讨厌的。
    – 胖子
    2023年1月1日15:50
  • 5
    @joesan有很多人将SO用于一个不适合的目的。对于这些人来说,聊天可能也能满足他们的需求。SO不需要达到这个目的就可以保持相关性。
    – 凯文·B
    2023年1月3日19:16
  • 8
    所以,这不是一个帮助台,也不是一个让你抛出问题并得到答案的地方。另一个提供这种服务的服务,无论是否使用AI,都比SO更适合寻找这种工具的人。
    – 凯文·B
    2023年1月3日19:43
  • 5
    这里的问题是人们将chatgpt“answers”粘贴到SO中。如果你想使用chatgpt,那就好了。这里的问题是人们将chatgpt“answers”粘贴到SO中,这非常烦人(对于SO用户,比如我)。
    – 胖子
    2023年1月4日12:18
  • 15
    @MaxHodges“但我一直都能得到完美的答案。”不,你没有,正如你在日本StackExchange上发布了大约十个答案时所恰当证明的那样。几乎所有人都是大错特错的,以至于你被网站暂停了一周。我很难理解你如何保持这种双重思维,即ChatGPT是完美的,而你通过自己的实验清楚地发现它不是完美的。 2023年1月14日16:16
  • 8
    @胖子正中要害。声誉系统,以及需要为了他们自己的预期利益(无论是专业的、学术的,还是仅仅为了获得大量的电子喷丸)是AI问题的根源。QA论坛中最引人注目的创新也是一个阿基里斯之踵。 2023年1月18日17:46
  • 4
    @danh,因为ChatGPT无法提供“一个”答案。你的整个建议取决于能否给出一个答案。ChatGPT可以为您提供广泛的答案。他们中的很多人都错了,比如“甚至不在同一个球场上”,唯一可以补充的批评是“这根本不是怎么回事”。从中学习并不是很有用。禁止它的真正原因是它太频繁了危险的,危险的甚至在相当基本的话题上都是误导和错误的。用户在网站上胡言乱语,除了得到分数之外,没有任何其他考虑。 2023年5月15日19:41
84

如果我是一个低级用户,遇到一个我怀疑是用ChatGPT写的答案,我应该采取什么行动?

如果我的特权允许的话,我可以投反对票,并留下评论,说明为什么,但我应该同时升起VLQ标志,甚至是版主标志吗?如果我确实引发了mod标志,那么我应该只在看到同一个用户使用ChatGPT编写多个答案时才这样做吗?

14
  • 87
    请在答案上打上“需要主持人干预”的标记,并解释问题是什么(即解释您认为答案是由ChatGPT生成的)。
    – 马延 国防部
    2022年12月5日23:25
  • 7
    看起来还没有其他人做过,所以我做了专门的问题贴。我会让官方主持人发布一个答案,而不是自己写一个。 2022年12月8日18:48
  • @Makyen:也许对这个建议要谨慎一些。我首先会问回答者:“你用ChatGPT解决了这个问题吗?”——当然他们可能会否认,但他们很可能要么提供另一种知识来源,要么干脆不回答,在这两种情况下,人们都有更多的信息来决定是否升旗。 2023年2月19日21:51
  • 4
    @我不会这么做的。你欢迎如果你愿意的话,可以花些时间。不幸的是,我们谈论的是成千上万篇帖子中的10篇,所以请普通用户(或版主)花费大量的额外的时间发表评论,然后过一段时间再返回帖子,看看OP是否真的回应了。我们(使用网站的人、做策划的人、版主等)只是没有足够的额外时间。我们网站没有可用的策展资源来单独处理这些帖子。
    – 马延 国防部
    2023年2月19日22:32
  • 5
    我还要注意到,在这样的评论中询问用户,与我们通常向用户提供的关于如何处理其他用户涉嫌违反规则的建议背道而驰。给用户的建议几乎总是“举起旗子;解释你认为可能存在的问题以及为什么会这样认为;脱离”。这类事情是版主应该处理的,因为它涉及到与用户打交道,而不是只是帖子的内容。版主可以查看用户的完整历史记录,这通常允许他们查看常规用户没有可用信息的模式。
    – 马延 国防部
    2023年2月19日22:32
  • @Makyen请考虑将您的评论转移到我对链接问题的回复中(之后我可以在此处删除我的评论)。 2023年2月19日22:47
  • @如果能在这里找到答案,Makyen表示歉意;该语句提到“……生成的文本内容。。。“关于SO,但这里的大多数讨论都是关于答案。SO是否对引用的材料有政策,例如问题比如说“查特罗说X,这是真的吗?”或者可以简化成这样的更复杂的问题?它们会被陈述中的“内容”一词隐含地涵盖吗,还是明确地涵盖了,但我没有涵盖,或者出于本文的目的,问题中的材料不被视为内容,或者以上都没有?
    – 哦哦
    2023年3月26日9:45
  • 2
    @哦,答案有点微妙。它被覆盖了回答:“我们应该标记使用ChatGPT生成的代码的人工编写问题吗?”。我个人的观点是,我们应该更加严格地询问如何修复AI生成的代码,因为这些问题实际上对未来的读者没有用处。在我看来,应该是许多的我们最好有一个“How do I do X”问题,而不是一个“Please fix this break code that I got from this tool,which经常会产生完整的垃圾代码,‘How do I do X’。”
    – 马延 国防部
    2023年3月26日11:07
  • @Makyen好的。当然,SO中有一些关于编码的问题,但不要问代码作为答案,例如来自*理论*标签,但我认为这些将是边缘案例和逐个案例处理。我对此感兴趣部分它如何转化为或通知各个SE站点策略,参见。space.meta.stackexchange.com/q/2999/12102我用“内容”来包含问题前提)(因为SO经常在事情上起主导作用。“查特罗说,这是真的吗?”如果不是问题,问题可能会成为一种刺激。无论如何,谢谢!
    – 哦哦
    2023年3月26日11:18
  • 2
    @哦A)SO的政策(如上)是人工智能生成的内容只有在用户的“关于我”中。在另一个网站上,我要么1)禁止此类问题,要么2)A单一的典型问题,比如“对于[关于网站主题的问题],人工智能生成的回答是否可靠和准确”,然后关闭每一个像你上面描述的那样的问题是那个问题的副本。反复解释人工智能生成的大型语言模型内容的当前水平是“雄辩的胡说八道”绝对没有什么内在的正确性。
    – 马延 国防部
    2023年3月26日11:33
  • @Makyen同意了,就像一个权威我们怎么知道阿波罗登月是真的?作为重复关闭的目标?
    – 哦哦
    2023年3月26日11:46
  • 1
    @哦,是的。能够将这些问题作为一个通用问题的副本来解决,该问题讨论了AI生成技术答案的当前可靠性和准确性水平,这是解决这些问题的唯一方法,除非该网站想进一步宣布这些问题为非主题问题,并为其提供特定站点的密切理由。
    – 马延 国防部
    2023年3月26日11:54
  • 1
    希望有一个重复的目标问题可以让更少的人被这些东西产生的“雄辩的胡说八道”所误导。不幸的是,在当前AI生成内容的信任方面,以更一般的方式帮助的人数可能只是杯水车薪,因为大多数人关心许多有关获取简单快捷回答,而不是对的回答。
    – 马延 国防部
    2023年3月26日11:55
  • @Makyen与上述评论略有关联space.meta.stackexchange.com/a/3057/12102
    – 哦哦
    2023年3月31日22:23
68

堆栈溢出是一个知识库,所以我觉得应该使用它火车人工智能模型喜欢ChatGPT,而不是相反。如果其他地方的机器人已经能给出答案,为什么要在这里提问?

此外,如果机器人给出了很多错误的答案(而且有可能在很短的时间内大量生成低质量的答案),谁来清理这些乱七八糟的问题?

11
  • 这高于我的工资水平,但堆叠训练人工智能模型,是的,这应该是这样的。meta.stackoverflow.com/a/421878/1815624 2022年12月6日9:38
  • 9
    考虑到它提供看似合理的答案的能力,我猜它已经在培训SO答案了。问题是,当它开始使用自己的答案作为更多的训练数据(创建一个循环)时,它的能力是更强还是更低?(可能更聪明,因为它把人的上/下投票和评论当作回馈,或者因为噪音被放大而变得更蠢(比如不断重新处理jpeg)
    – 沃伊托
    2022年12月8日1:04
  • 6
    10%的SO问题很简单,但90%实际上很新颖当tvOS发布后,没有人知道如何视差按钮,认为机器人可以“回答”这个问题是幼稚的。
    – 胖子
    2022年12月10日4:15
  • 1
    @Fattie我认为理论上它可以从tvOS读取数据(源代码、文档、可执行文件等)并加以利用,但要使其正常工作可能需要进行大量的研究。更有可能的是,它可以帮助那些试图发布重复或接近重复内容的用户,或者至少为常见的类似问题想出主意,而不是浪费其他用户的时间。 2022年12月12日19:21
  • 4
    Solomon只是转发了您提到的内容(阅读tvOS文档,理解它,进行测试研究,创建解决方案),这对于当今的技术来说是完全不可想象的。(这就像是说“以1/2光速去火星旅行”。)“chatGPT”唯一能做的就是随机组成的句子,具有文本语料库示例的节奏和语法”。就是这样。(它有时“正确回答”的唯一原因是它随机地咀嚼主题上的文本,这很可能是正确的。它甚至不理解什么是“问题”。)
    – 胖子
    2022年12月12日19:34
  • ChatGPT可能已经在训练StackOverflow了吗?它只是在消费互联网上的东西,如果还没有的话,我会大吃一惊。 2022年12月21日20:13
  • 没有人想将cGPT的输出直接管道传输到SO。假设cGPT完全了解这一切,则表明缺乏对LLM的理解 2022年12月23日16:32
  • 1
    @我的意思是夏日天空。。。这是可以证明的错误,这里至少有十几个答案表明了这一点。(有几个可能会被删除。)人们以这种方式使用它,就是这个临时禁令存在的原因。
    – 凯文·B
    2022年12月23日16:34
  • @KevinB是的,在这里,他们就像是在回答他们的问题,并想知道它不能被正确地回答。。。无论如何,如果你发现了其他一些不祥的答案,这些答案都是将LLM视为一种辅助技术和/或耶尔摆脱了你的能力,我很高兴你能在我的答案中添加这些答案的链接meta.stackoverflow.com/a/422306/3623574此外,为了清楚地表明,我正在寻求一种妥协。我现在也反对从cGPT到圣诞节这么简单的管道 2022年12月23日16:42
  • 2
    这里没有人反对辅助技术;您只是用它作为借口,来概括地忽略这个工具所造成的问题。除非这些问题能够得到解决,同时允许将其用作辅助技术,否则它将一去不返。
    – 凯文·B
    2022年12月23日16:44
  • 堆栈溢出是一个知识库,所以我觉得应该用它来训练人工智能模型-放心吧,这绝对是真的,我们都不知道。 2023年2月14日10:40
56

这需要检测人工智能生成的答案/问题,可能还有其他旗帜如果怀疑某个答案/问题是一个问题,用户可以选择标记帖子。

这里有一个有趣的地方是,深度假冒检测是一个很大的研究领域,但人工智能生成的文本检测仍有点滞后。希望社区很快拿出好的模型来帮助检测ChatGPT生成的内容。

对于那些建议ChatGPT可以“帮助”SO的人来说,请知道,SO与其他问答平台的最大区别在于,世界上一些最优秀的程序员正在直接指导社区,我们其他人从他们的答案中学习,然后指导其他需要帮助的人。

你更愿意向谁学习?一个经验丰富的程序员还是一个随机拥有AI文本生成器的人?因为如果SO允许这一点,请放心,这将被过度利用。

20
  • 17
    这听起来像。。。没有很好地利用时间或资源。社区应该评估回应的质量,而不是必要地是否来自人工智能。但我同意你的其他观点。
    – 马科托
    2022年12月5日22时15分
  • 9
    图灵教授,请打电话给你的考试办公室。。。 2022年12月5日22:32
  • 6
    @Makoto:有办法得到大量错误答案表面看起来不错删除是一个新问题,可能需要新的工具。如果一条看起来像人工智能产生的垃圾的评论足以在应得的时候扭转投票潮,那么也许不是。但是社区帮助mods识别发布这种人工智能垃圾的用户,如果正常的速率限制不能阻止他们的话,可能会有助于他们被停职。(要么是因为他们愚弄了足够多的人投垃圾票,要么是他们有一些代表开始,但仍然没有意识到这有多可怕。) 2022年12月6日0:50
  • 4
    @Makoto——社区不仅帮助检测质量,而且现在也在帮助检测。此外,仅仅添加此标志并不是对社区时间的滥用,因为这是人工智能生成的内容实际发布到SO上的函数。正如mods在另一个答案上的评论所提到的,用户仍然会将其标记为mod干预。事实上,这将有助于减轻mods的负担,他们将不得不审查每个答案,并将帮助清理更快。最后,如果SO提供数据,这样的标志将有助于引导检测AI生成内容的研究。 2022年12月6日5:59
  • 我的主要问题是,也许我需要的专家可以回答这个问题,但他讨厌写作,只有在他能够简单地验证人工智能的正确性并将其复制粘贴到我身上时,他才能回答我的问题……我会很感激,因为人工智能写的这件事对我来说并不重要……虽然它是一个准确或正确的答案,我的意思是,我负担不起那些我往往需要帮助的人,如果人工智能让他们更快地正确回答我的问题,这是我唯一的选择,我不想消除它,因为他们可能很忙,否则就根本无法回答 2022年12月6日10:07
  • 我并不是建议专家们修改人工智能写作,这是浪费时间。相反,如果他们能检查它,然后给我一个正确的人工智能书面答案,我完全欢迎它,如果他们检查人工智能答案,认为它不正确,不分享我喜欢这样 2022年12月6日10:11
  • 6
    @CrandellWS:在一个完美的世界里,人们会使用人工智能来生成答案,然后进行测试,验证人工智能的答案是否正确,然后发布到SO上。不幸的是,这不是目前正在发生的事情。我们有大量用户在完全不检查的情况下将AI答案复制粘贴到Stack Overflow。有些答案是正确的。有些完全是胡说八道。就在今天(过去三个小时),我看到至少有5个用户在没有任何检查的情况下进行了复制。他们用错误的编程语言发布答案,自相矛盾的答案,等等。 2022年12月6日10:12
  • 8
    @CrandellWS:检查这些答案所花费的时间远远超过可接受的时间。你不能指望SO上的志愿者为人工智能生成的内容提供审查服务。要么答案的作者在发布之前检查正确性,要么AI答案不可能。 2022年12月6日10:14
  • @我知道我支持极端临时措施,直到找到解决方案。。。无论极端是限制性的还是非限制性的 2022年12月6日10:14
  • @BDL我同意,但我们遇到了洪水,我只是说溢洪道可能是个好主意 2022年12月6日10:15
  • 1
    @CrandellWS,这是其他人之前提到的。你怎么知道“专家”在发布之前已经验证了它?关于“缺乏写作欲望”,SO是一个社区。你会发现这里总是有活跃的人。无论是为了解决问题、赢得声誉、建立投资组合,还是仅仅为了无聊,如果你的问题构建得好、写得好,总有人会回答你的问题。而且,为了进一步激励“大联盟”,还有一个悬赏功能。 2022年12月6日16:54
  • 1
    如果策展/审核工具足够灵活,可以动态创建新的旗帜类别就好了
    – 凯文·B
    2022年12月6日17:08
  • 1
    一个公共的临时禁令,比如这一条,以及实施该禁令的国防部,足以阻止善意用户滥用它。只有禁令才能阻止其他用户。这总比在找到更好的解决方案之前什么都不做要好。
    – 凯文·B
    2022年12月6日17:21
  • 5
    解决方案迟早会到来。学术界使用方法检测AI生成的剽窃(修改输入文本而不改变上下文的模型),媒体/内容平台使用的是Deepfalse检测模型,并且有很多AI生成文本检测器,一旦模型正式可用,这些检测器可以并且将针对ChatGPT进行微调。SO并不是唯一一个会因滥用和利用此模型而受到负面影响的平台。目前,临时禁令是一个很好的策略,可以评估模型的影响与炒作情况。 2022年12月6日17:49
  • 1
    谁说过“编程的爱因斯坦”;仅仅因为你知道/掌握了编程中的一个特定概念,并不意味着你就是爱因斯坦。这是一个幼稚的比喻。SO的全部意义在于它是一个社区管理的平台。如果有人没有正确回答,社区会纠正它,并随着时间的推移改进/维护它。如果你在关注ChatGPT的任何内容,人们会清楚地认识到它的准确性很差,最终只会产生“自信”的答案。问题是对ChatGPT概念一无所知的人滥用了它 2022年12月31日9:48
56

几个月后,我注意到允许和禁止ChatGPT的问答网站之间存在很大差异。我曾经使用过一个网站(称为精艺论坛(Jingyi forum)),它过去很好,因为它使我能够更容易地交流(因为英语是我的第二语言)。

我最近在那个网站上问了一个关于C++的问题。然而,在我发布问题后,唯一回答我问题的是使用ChatGPT。更让我惊讶的是,尽管答案完全错误,但管理员并没有禁止他。将Stack Overflow与该网站进行比较,我可以在更短的时间内获得更好的答案。

更重要的是,该网站上试图帮助人们的人开始不愿意回答问题。他们花了很长时间写一个问题的答案,但他们能得到的回报比使用ChatGPT的人少。

6
  • 1
    你能告诉我们问答网站的名称吗?这是公开的,不是吗? 2023年6月13日6:38
  • 5
    @当然,它被称为经义论坛。
    – 韩寒
    2023年6月13日14:45
  • 6
    这很有趣。所以实际上可能是ChatGPT直接原因很少有人愿意回答堆栈溢出问题(而不是处理ChatGPT剽窃者)。为什么Stack Overflow与Jingyi论坛不同?(是的,这是一个反问句。) 2023年6月13日21:09
  • 12
    这有点……在某一点上,如果允许“骗子”逍遥法外,游戏化系统的威望就会丧失。甚至在chatgpt之前,我们就已经看到了这样的效果,新的应答者觉得这是无望开始的,因为高代表性用户有这么多代表性,而新用户很难获得它。
    – 凯文·B
    2023年6月13日21:13
  • 15
    虽然你说的是一个传统的论坛,但我认为你可能有一些想法。早在ChatGPT出现之前,从Stack Overflow开始,人们就注意到,不是最快的答案真的很糟糕。它被称为西部问题中最快的枪。有些人甚至不会写一个答案,如果有一个现有的答案,特别是一个被接受的。一个人真的不可能比ChatGPT更快,尤其是当问题不是小事,而且你比ChatGPT更关心准确性时。
    – 劳雷尔
    2023年6月13日21:46
  • 4
    现在meta上有关于它的讨论在这里. 2023年7月6日13:02
31

如果没有其他原因,这些内容肯定需要被禁止,以便在这里进行讨论,而不是在它被标记时到处都是讨论。

ChatGPT甚至承认所描述的陷阱,简而言之:

限制
ChatGPT有时会写出听起来合理但不正确或无意义的答案。解决这个问题具有挑战性,因为:(1)在RL培训期间,目前没有真相来源;(2) 训练模型更加谨慎会使其拒绝回答正确的问题;(3)监督训练误导了模型,因为理想的答案取决于模型知道什么,而不是人类演示者知道什么。
-ChatGPT:优化对话语言模型

但我认为这里真正的问题是执法。使用此内容的惩罚是什么?用户是否也会立即受到禁止,或受到一系列处罚,最终导致禁令?

2
  • 8
    我看到人们因为在现有的“剽窃”禁令下发布ChatGPT答案而被停职,不仅在Stack Overflow上,在其他SE网站上也是如此。
    – F1疯狂
    2022年12月6日23:35
  • 6
    第一次进攻应该是立即禁赛90天。任何一个发布机器人内容来回答技术SO问题的人都不是程序员,很可能是个白痴。没有什么比杂乱更让人讨厌的了,对车主来说,没有什么比破坏品牌价值更令人讨厌的了
    – 胖子
    2022年12月10日4:13
30

讨论的重点不是是否应该允许AI生成的答案。对于用户发布低质量的答案而不遵循堆栈溢出的礼仪,这是一种更普遍的做法。

禁止这些答案是正确的做法,但这是用户行为中的一个系统性问题,因此修复用户行为是一个更稳健的解决方案,因为最终无法将低质量的AI答案与低质量的答案区分开来。

  • 即使没有人工智能,非熟练用户也可能发布低质量的答案
  • 了解发布AI生成答案的用户的行为更为重要:为什么堆栈溢出答案对他们很重要,以及他们认为发布无用答案会带来什么好处
  • 如果低质量答案的数量太大,无论是否来自人工智能,那么通过增加发布答案的门槛来解决这个问题
  • 如果不是个别案例而是系统性的,那么可以使用常规的讨论论坛工具通过行为标签、IP地址等来识别有毒账户

编辑:似乎已经就此主题打开了另一个Meta讨论:面对机器人程序泛滥,更严格的信任模型?

5
  • 8
    我大体上同意。尽管应该考虑到,这些人工智能工具减少了发布低质量但乍一看还可以的答案所需的工作量。大多数其他低质量的答案(除了给出错误的答案外)还存在拼写和格式问题、不连贯的写作风格以及其他类似的问题,这些问题便于识别。 2022年12月5日22:08
  • 4
    我认为Journeyman Geek在MSE上解释得很好Ban ChatGPT网络范围
    – 法尔曼 国防部
    2022年12月5日22时14分
  • 4
    “最终,低质量的人工智能答案无法与低质量的答案区分开来。”这显然是错误的。许多用户已经因为发布CGPT生成的答案而被暂停使用。这些答案遵循可识别的模式。 2022年12月5日23:14
  • 2
    @塞尔布鲁斯——你是对的;现在的情况就是这样。然而,ChatGPT在其文本中变得更加多样化,或其他替代人工智能模型达到相同水平只是时间问题。除非你把非英语用户的拼写错误计算在内,否则在中期内,将很难将人工智能生成的低质量答案与其他低质量答案区分开来。 2022年12月6日17:37
  • @MikkoOhtamaa你训练一个模型越多,它的输出就越像彼此。更多的培训不会使产出多样化。 2022年12月12日6:56
30

永久禁止回答的其他情况

除了出于其他答案中已经说明的所有原因完全同意这一点,并认为它应该是永久性的(也出于其他地方多次说明的原因),我认为还有一个额外的理由可以将其作为永久性禁令,我认为其他地方没有涵盖:

假设任何人都可以对于一个公共GPT实例,输入他们的问题,然后得到一个类似(如果不相同)的答案,然后允许这些答案发布在SE站点上基本上意味着两件事:

  1. 从某种程度上来说,这意味着这个问题本身缺乏研究:如果问题很容易得到答案(问机器人),那么提问者可能会这样做。在一些SE社区中,这很好,但对于缺乏研究的社区来说,这通常是不受欢迎的,允许发布这些答案从本质上鼓励了社区通常不想要的问题。

  2. 更重要的是,这意味着无论出于何种目的,Q/A对都只是机器人的聊天日志。如果我能问机器人一个问题并得到答案,然后我把这个问题和答案放在SE网站上,我真正做的就是复制互联网上已经存在的信息。虽然某些SE站点肯定有他们共享的重复信息(例如,SO有许多问题,其答案可以在文档中找到),但添加额外的重复通常没有任何价值,特别是当该信息只是一个Q/a会话的副本,可以随时与给定的GPT机器人一起使用时。使用机器人复制聊天日志并不会真正为互联网增加任何价值。SE最终的目的是从一小群人的头脑中获取知识,并进入一大群人的大脑中,但这只是重复了已有的知识。

因此,由于鼓励社区不想要的问题显然是不可取的,并且由于使用机器人复制聊天日志并没有真正增加任何价值,我认为禁令应该是永久性的。当然,除此之外,还有其他所有给出的理由。


PS进一步强调了上述两点:这些机器人是根据现有信息进行训练的,因此它们并没有真正创建新的信息。它们实际上只是以可读文本的形式呈现现有信息重组的搜索引擎。因此,向他们提问大致相当于在谷歌上搜索问题并解释结果。在我看来,应该像对待搜索引擎一样对待机器人。而来自机器人的答案应该被视为只是复制+粘贴谷歌结果的答案(即毫无价值的剽窃)。

2
  • 21
    “它们实际上只是搜索引擎”另一个事实是,搜索引擎至少会提供结果的来源和索引文档的原始性质,而我们这里甚至没有。试图请求ChatGPT为科学研究主题提供参考往往会产生虚构的文章标题。在这方面,它比搜索引擎更糟糕。
    – _网络4
    2022年12月27日12:09
  • 4
    复制之战早就失败了。游戏化鼓励提交明显重复的答案,而不是为了找到规范的问题。搜索引擎输出也被破坏;总的来说,他们拒绝(出于任何原因)返回2008年和2009年的规范问题。 2022年12月30日15:36
26

还有另一个方面:

人们(至少我是这样做的)来这里寻求真实的帮助专家–如果我想从ChatGPT、Bard或其他AI引擎获得答案我可以去那里问问自己!所以我加入了请求永久地禁止来自任何AI引擎的任何答案。

我甚至更进一步:人们反复地用人工智能生成的内容回答应该受到谴责,如果反复忽视,可能会暂时被禁止完全回答。

  • 5
    直到几周前,SE才禁止版主对AI生成的内容采取任何行动。现在有一个中庸/策展罢工目标是提升新的AI政策。 2023年6月14日14:49
  • 与此相反,我想说的是,许多领域专家通常没有时间写出详细的Stack Overflow答案。根据他们的具体知识,他们很容易确定ChatGPT答案是否合适,以及发布它是否合适。这就是ChatGPT答案的情况,例如:stats.stackexchange.com/questions/76925/…。我知道这是正确的,因为我在那个领域工作,所以我发布了它,但我自己从来不会写出这么详细的答案。 2023年6月15日18:07
  • 5
    不过,如果你什么都不做,你会很乐意接受奖励;)
    – 凯文·B
    2023年6月15日18:09
23

暂时禁止将ChatGPT生成的文本用于堆栈溢出上的内容。

我认为值得澄清的一点是,尽管这里的大多数讨论都围绕着答案由ChatGPT编写,禁令的声明也适用于问题,我认为这很好——应该禁止使用ChatGPT编写的问题,尤其是使用ChatGPT编写的代码的问题,即使用户没有尝试将其冒充为自己的作品。

如果有人问这样的问题“我使用ChatGPT生成此代码,但它不起作用,为什么不呢?”,那么通常正确的答案是“因为ChatGPT编写了它,不应该期望ChatGPT编写正确的代码。”对于Stack Overflow中的这些问题,要获得比这更详细的答案是没有用的,因为其他读者可能对其他人从ChatGPT中获得的确切代码被破坏的原因不感兴趣。因此,这些问题应该结束。

同样,特别是初学者程序员发布问题(如家庭作业或教科书中的问题)并询问如何解决的问题,通常会被要求展示他们自己在这个问题上的尝试。如果一个提问者试图通过展示ChatGPT写的“尝试”来回避这个问题,这不足以构成一个好问题。我们要求查看尝试的原因是,否则就无法知道答案的理解程度,而ChatGPT的“尝试”并没有解决这一问题。

  • 2
    重新如果提问者试图通过展示ChatGPT写的“尝试”来绕过这个问题,如果OP发布的代码不是来自任何来源的他们自己的工作,没有归属,这是一种嘲讽,应该认真对待。 2023年3月16日5:16
  • 2
    从字面上看,这似乎不符合使用当前策略; 特别是关于ChatGPT编写的代码的问题,尤其是当用户不尝试将其作为自己编写的代码进行冒充时。FWIW,大多数问题都是问“它不起作用,为什么?”,或者是家庭作业,或者是为特定的尝试量身打造的教科书,这些都是大多数读者绝对不感兴趣的东西,无论这种尝试是否来自ChatGPT。 2023年3月16日6:20
  • 2
    @宫城先生谢谢你指点我其他的问答。我在这里的帖子是一个支持政策的论点,看起来其他问答是讨论该政策的地方,我的立场不是一个共识。
    – 卡亚3
    2023年3月16日6:36
21

我认为禁令应该是永久性的。堆栈溢出需要有经验和专业知识的真实人员提供答案。我认为人工智能的答案不能也不会解决大多数用户的问题。

2
  • 7
    你已经读过了吗meta.stackoverflow.com/a/422343meta.stackoverflow.com/a/422096(也许还有其他人,但除了这个答案之外,只有这些人使用“永久”这个词)?第一个是赞成永久禁令,第二个是反对。你投票给这些答案了吗?
    – 威基特
    2023年1月3日18:13
  • 1
    幽默的方式:在每一篇高质量的帖子中添加一个脚注“这个答案是由一个自然智能(NI=一个真实的人)创造的。在这个文本的创作过程中,没有人工智能被使用、伤害或困扰。”;-)
    – 马特
    2023年3月23日10:50
19

我听说了这项禁令,但没有认真研究。仔细想想,我忍不住同意这个决定。抛开准确性不谈,如果人们想要ChatGPT的答案,他们应该去ChatGPT。人们来到这里是为了与人类互动,而不是与模仿人工智能反应的中间人互动。

5
  • 7
    我不反对你的立场,但是。。。这给这里的讨论添加了什么容德萨的回答科通塔尔的回答阅读和投票是表达自己观点的有效方式,而不是写一篇回复文章,我认为更好在这种情况下现有讨论中没有添加任何新内容。
    – 星球
    2023年2月3日21:50
  • 18
    发布另一个答案比阅读其他76个答案更容易
    – 凯文·B
    2023年2月3日22:08
  • 4
    @KevinB从前我求婚阅读之前的答案作为前提当问题已经有很多答案时发布
    – 蚊虫
    2023年2月10日21:36
  • 2
    @我更希望,当帖子收到超过n个有权这样做的用户的答案时,可以采取行动,防止他们达到这样的程度,即期望人们阅读几十个答案以避免重复一个答案是荒谬的。我不会坐在这里责怪像这样的用户在有80个答案的情况下回答问题。这不是他们的错
    – 凯文·B
    2023年2月10日21:38
  • 1
    @KevinB FWIW提出的先决条件阅读应该在任何荒谬的事情发生之前很久就开始——少于10个答案(理想情况下是5个或6个)。这是因为它应该帮助像我这样在发布之前阅读所有答案的人。主要目的是让事情对我来说更方便,你可以考虑把重复不考虑的事情当作一种有益的副作用来处理
    – 昆虫
    2023年2月10日22:42
18

我同意应该有一个临时禁令,因为许多用户会使用聊天机器人来生成看似正确但实际上可能不正确的答案。它推动了内容的普及。因为堆栈溢出完全取决于志愿者,所以他们很难验证每个答案。使用机器人复制粘贴答案需要几秒钟的时间,而校对并确保它们提供价值需要更多的时间。

18

ChatGPT的问题是它不适合那些答案应该/可以用来回答。

一方面,关于SO的问题写得很好,有一个清晰的问题陈述,一小段再现问题的代码,一条清晰的错误消息。整体质量和清晰度都很好。

这些问题是CGPT最容易解释的。他们最有可能从人工智能中获得良好的输出。
这些问题也不太可能被解决,最有可能得到人类的答案。

另一方面,还有一些问题不清楚,缺少适当的问题陈述,缺少错误消息,格式不好的代码,如果有任何问题的话。。。
这些问题将从能够找出问题并予以解答的人工智能中受益匪浅。

CGPT会为这些问题写出好看的垃圾答案。

所以即使如此什么时候机器人制造了一些宝石。。。它们没用SO上.


TL;DR:抓紧,拉屎。
需要这个机器人的问题无法从中受益。

10
  • 2
    我曾傲慢地在我自己的几个问题上尝试过,假设这些问题都是好的,但却以惨败告终。例如。这个,一个VBA终止处理程序由于类和一些内置程序之间的引用循环而未启动,它建议“将代码移动到初始化处理程序,然后它将启动”🤦‍♂️. 当要求对密码存储进行unicode规范化时,它提供了一个示例,即mojibakes字符串。。。 2022年12月8日11:44
  • 2
    @埃里卡:“他们最有可能获得好的产出”这并不一定意味着他们做得好:D 2022年12月8日12:16
  • 目前我问的问题很短,只有0/8,所以如果是最有可能嗯,那不太好。它给出的答案要么是“完全错误的代码”,要么是“一个虚构的乐趣/参数,它解决了你的问题,但并不存在”,要么就是“你错过了问题的全部要点”。我认为CGPT只能回答最琐碎的问题,即使问题很好地表述出来。当然,这些琐碎的问题很可能是重复的。 2022年12月8日12:36
  • 这基本上就是我的观点:D 2022年12月8日12:36
  • 7
    你的答案听起来像是可以回答清楚、写得好的问题,这些问题可以由人类回答。我的观点是:只有当答案也是微不足道的时候,这才是正确的,因为cGPT无法解决简单明了的问题,而人类可以很好地回答这些问题。它甚至无法解释它们,并将它们转换为它有答案的东西。 2022年12月8日13:01
  • 1
    可以,但没有保证。我哪里也没有说写一个好问题担保一个正确的答案。只是可能性更大。 2022年12月8日13:16
  • 7
    我列举了CGPT产生垃圾的例子,并尝试了一下这个问题在Vi.SE上,CGPT建议更改字体吉方(在该上下文中不是有效属性)。当我告诉它时,它说要使用字体,当我告诉它不起作用时,马上回到吉方(虽然我或多或少已经将这个特定问题确定为Vim中的一个bug,所以它产生任何有用的东西的可能性已经非常小了。这是为了科学,看看它能回答什么,但这是一个很好的例子)
    – 佐伊 国防部
    2022年12月8日13:21
  • 1
    虽然语言模型无法提供所需的所有东西,但它们仍然可以通过两种方式成为辅助技术:总结长文本以便于消化,或帮助以结构良好的方式编写。 2022年12月23日16:28
  • 是否有一些数据来衡量提问率?我的意思是,在chatGPT推出后,SO是否注意到提问率下降了?有没有一些数字比较了聊天前和聊天后GPT发布对SO每分钟提问率的影响?
    – 乔桑
    2023年1月25日5:32
  • 我没有任何数字,但多个mod都表示问题范围根本没有下降,@joesan 2023年1月25日8:32
16

我不认为有任何办法可以100%阻止人工智能辅助回答。

防止AI辅助答案在堆栈溢出上泛滥的最有效方法。。。

快速结束所有可结束的问题。

锤子?如果你有,就用它。


这个FGITW公司答案以前很快,现在会更快。

也许这是在呼吁提供银獾/金獾以更快的速度关闭页面的能力。

如果页面在中关闭,也许我们应该删除任何赢得的代表n个被问及的日子。这样提问者仍然可以得到他们需要的答案,但回答应该关闭的问题将不再有奖励。

当人工智能能够在任何人发布答案之前准确地帮助我找到好的被愚弄的目标(理想的标准)时,我会更加高兴。


附言:我们是否应该强制要求回答者明确声明使用人工智能辅助?例如<sub>声明?

这个答案得到了人工智能的帮助。

15
  • 6
    "快速结束所有重复和非主题问题。“不起作用,对不起。”FGTIW的回答者以前很快,现在他们会更快。“通常,一个问题在敲打时会得到一个或多个答案。在2-3分钟的时间内。我坐在最新的问题上,并试图尽快正常地采取行动,但即使这样,找到一个被愚弄的问题可能也要比写一个简单的答案花费更长的时间。我在不到5分钟的时间里完成的一个问题,在我敲打我的时候已经得到了五个答案现在写答案更简单了。 2022年12月7日6:30
  • 11
    CGPT的条款甚至规定,你必须声明内容是人工智能生成的,你不能假装它是你自己的。 2022年12月7日7:00
  • "这样提问者仍然可以得到他们需要的答案“为什么还需要这样做?这不是堆栈溢出的目的,还有其他网站也需要这样做。但是”如果页面在被问及后n天内关闭,我们应该删除任何赢得的代表“听起来是个好主意!
    – 沃瓦诺
    2022年12月7日7:52
  • 你在问:为什么提问者要在问答网站上得到他们需要的答案@wov(沃尔沃) 2022年12月7日8:31
  • 2
    @米克马库萨,不,我在问:为什么根据网站规则应该关闭的问题(因为它们是非主题的)要得到答案才能取悦(无知的)提问者?显然,好的主题问题(不应该封闭)值得回答。
    – 沃瓦诺
    2022年12月7日8:35
  • 1
    什么是FGTIW回答者? 2022年12月7日9:43
  • 4
  • 4
    @不是所有的傻瓜都是坏的。Stack Exchange不介意几个指向单个重复数据消除目标的独特路标。重复性可能是有争议的,所以允许回答并不荒谬。 2022年12月7日10:13
  • @Lomtrur嗯,应该是FGITW,但他们选择了“西部最快的枪”问题。 2022年12月7日10:13
  • @米克马库萨,我同意我的评论并不完全适用于以重复形式结束的问题(虽然我个人喜欢把所有答案放在一个地方,而不是在许多重复问题上乱七八糟地乱七八块,但YMMV)。然而,它也适用于因其他原因而关闭的问题。您在个人资料中声明:“这就是为什么。。。我要求其他人不要发布不完整、重复或其他接近的问题的答案。"
    – 沃瓦诺
    2022年12月7日10:17
  • 2
    我认为,在积极的标签管理者的帮助下,收尾会更有效率。他们目前倾向于放弃这一点,因为该系统将不熟悉标签的适度性推向了他们的喉咙。与其用“外部”的东西来打扰他们,他们应该有机会在自己觉得舒服的地方缓和一下tag-filtered分诊和接近投票权通过标签徽章增强
    – 蚊虫
    2022年12月7日11:40
  • 1
    每次使用AI生成的答案识别用户时,声誉惩罚如何?只是一个想法。 2022年12月7日11:49
  • @AkshaySehgal许多发布了大量CGPT答案的用户都是新用户。他们有一个代表。或者已经开始在一个代表处发布答案。实际上并没有太多可以“惩罚”他们的东西。对于那些已经开始发布生成答案的高代表性用户来说,这可能会奏效,但我反对这样做。简单的临时禁令(目前正在发布)应该能传递这一信息。没有真正的必要做一个永久的标记。 2022年12月7日15:04
  • 5
    重新附言:我们是否应该要求回答者明确声明使用人工智能援助?-我们已经这样做了。将人工智能生成的答案作为自己的答案发布,而不加归因,就是剽窃。 2022年12月10日9:04
  • @克里斯内尔森(chrisneilsen),以及(正如在其他答案中已经指出的那样)OpenAI要求这也是,所以不这样做是违反二者都现场规则。
    – 沃瓦诺
    2022年12月10日9:15
14

我认为这是正确的决定。

人工回复听起来很权威,因为它们的语法可能比人工回复更好。回复生成器不知疲倦。他们很容易压倒人类当局。

禁令是暂时的。

一切都是暂时的。这项禁令应该持续到需要时为止。

人工回复不可信。

我们看到了好的和坏的答案。目前有很多错误的答案,但人工智能的进展很快。它们很快就会成为一种有价值的工具。一百年后不会?他们比以前好多了上周.

质量是一个问题,但不是全部问题。一旦AI回复的质量与我们的人类贡献者相当,我们就不应该邀请他们回复。我们应该排除他们,直到我们了解他们的答复是什么,以及他们失败的性质。

我们无法判断回复是否来自AI。

这是真的。如果我们能分辨出差异,那么人工智能就可以接受训练,发现差异并进行纠正。一些人可能会接受ChatGPT的答案,并将其作为自己的答案发布。其他人可能会发布自己模型的回复来测试它,并收集培训数据。一个简单的过滤器,比如将回复时间限制在典型的打字速度,可能会阻止我们陷入困境。但它不会持续。

我们可以要求人们不要发布AI答案。如果我们以禁令相威胁,或者谈论我们的聊天机器人过滤,一些人会将其视为一种挑战。

也许一个长期的解决方案可能是与人工智能合作。假设所有对话都可以选择使用当前流行的模型生成人工智能答案。你可以看到问题或整个对话的答案,同时知道它是由人工智能生成的。

2
  • 同意“所有禁令都是暂时的”,这是一个重要的观点:这是完全正确的奇怪的(而且令人担忧!)在这个特殊的例子中明确提到了暂时性,但没有其他意义。 2023年1月5日8:48
  • 我非常喜欢你的回复。如果你不介意我说的话,使用ChatGPT来检测ChatGPT是一个矛盾。。你写道:“我们不应该邀请人工智能回复,直到它们的质量等于我们的人类贡献者”。什么是好质量?ChatGPT对StackOverflow上的问题的回答与人工生成的答案一样好。人类给出了许多错误的答案。我坚信ChatGPT在不久的将来,也许在十年结束之前,将超越StackOverflow排名最高的成员。 2023年6月5日16:15
14

TL;博士

即使从人工智能研究人员的角度来看,Stack Overflow和其他以人工生成内容为主的网站也应该禁止或强制标记人工智能生成的内容,否则,这将导致循环推理的灾难性失败,因为过去2022年新生成的内容无法再用于训练新的AI模型,因为我们无法知道人类或旧AI模型生成了什么。

更长的参数

我想提供另一种观点,不是从堆栈溢出人类用户的角度,而是从人工智能研究人员的角度。

很有可能GPT-3和ChatGPT都接受了所有堆栈溢出数据的训练这是因为当时的所有输入都是人工生成的。(附言:让我们暂且不讨论人工智能研究人员使用第三方内容来训练人工智能模型是否合乎道德,而不询问各自的所有者——我在这里关注的是已经发生的事实,这是无法逆转的,以及对我们当前和未来形势的影响)。

现在,如果人类的答案与人工智能生成的答案混合,我们会得到一个被篡改的数据集,该数据集将无法用于训练未来法学硕士或其他语言模型,因为它将导致一个有巨大缺陷的循环推理循环,因为我们现在输入一个旧AI模型生成的AI模型数据,而无法确定由人类或AI生成的内容。

这意味着,如果我们不能确保大多数答案仍然由人类生成,这将导致人工智能模型的灾难性失败,因为使用新的数据制作新的模型将变得不可能:2022年将成为“人工智能的事件视界”,今年之前生成的数据仍然可以用于培训,但过去生成的任何数据大多无法使用,因为人工智能生成的内容可能在很大程度上污染了这些数据。

因此,这个问题甚至不仅仅局限于堆栈溢出:所有网站都应该禁止使用人工智能生成的内容,或者强制将此类内容标记为人工智能生成。但即使如此,它也只适用于合规用户。由于没有百分之百可靠的方法来检测文本AI生成的内容,而且我们总是希望人们能够对系统进行博弈,尤其是在有动机的情况下,这场灾难性的失败似乎几乎是不可避免的。

9
  • 7
    老实说,这听起来完全是研究人员的问题。我不知道为什么这些人工智能发送垃圾邮件的网站会同情更多此类模型的进一步创建。
    – JAD公司
    2023年1月26日9:29
  • 1
    可以过滤训练数据以删除AI生成的内容(因为该内容是可检测的)。这并不意味着SO应该允许AI生成的内容,但提供可用的培训数据并不是SO的责任。 2023年1月26日12:24
  • 1
    @你的意见听起来很摩尼教。当不用于垃圾邮件时,人工智能有着奇妙的应用程序,已经改变了我们当前的世界。无论如何,憎恨工具是徒劳的,就像憎恨刀子一样。它可以用于好的方面,也可以用于坏的方面。我只是认为,即使从人工智能研究人员和用户的角度来看,接受人工智能生成的答案并没有中长期的好处,只有(灾难性的)负面影响。因此,无论从SE用户的视角来看,还是从AI用户/研究人员来看,禁止是少数几个合理的解决方案之一。
    – 健谈的
    2023年1月26日20:36
  • @Cerbrus没有一个过滤器是100%有效的,使用稍微修改的模型或后处理很容易解决这些过滤器,人工智能用户(甚至研究人员)已经在社交网络上发布了大量类似的帖子。而且我从来没有写过SO/SE有责任提供可用的培训数据,我只是提供了一个同样适用于同一解决方案的替代观点。“我们对他们”的心态似乎激化了,令人难过。尽管我的观点同意这项禁令,但它只是因为接受了另一方的观点而被抛弃了。 2023年1月26日20:42
  • 1
    我根本不明白这是如何解决政策问题的。你不是在反对这项政策,你说你同意它……但这就是“投赞成票”按钮的作用。答案中没有其他内容与政策决定相关。
    – 凯文·B
    2023年1月26日20:47
  • 1
    重新“通过稍微修改模型或后期处理,很容易解决这些过滤器的问题”:是的,但幸运的是,最严重的虐待者也有最不努力的态度(换句话说,他们不会被打扰)。 2023年1月26日21:18
  • @坦率地说,在讨论SO政策时,另一方的观点无关紧要。 2023年1月27日8:28
  • 1
    @Cerbrus AI不是另一方,而是一种技术,就像SO/SE的(基于AI的)推荐系统一样。除非我们认为SO是一个闭环系统,因为它是一个可公开访问的网站,我觉得这是不合理的,否则我认为忽视任何非以SO为中心的观点都是非常短视的。我提供的观点更加系统化,考虑到其他因素和更广泛的技术前景。我不认为它应该是主要的观点,我明确地写道,它是一个替代的观点,如果你愿意,它是“思考的食粮”。
    – 健谈的
    2023年1月28日13:14
  • 有趣的是,研究人员如何标记机器生成的数据,同时隐式获取用于训练的数据?
    – 拉胡尔
    2023年2月7日22:48
12

我认为应该禁止使用ChatGPT中未经修改的答案,但如果您使用ChatGPT生成答案,然后根据需要独立验证并根据您的知识进行更正,则应该允许这样做。它可能是一个有用的工具,但仅仅从中获取答案往往是无益的。

19
  • 47
    我认为这不需要明确豁免。通常需要花费更多的时间和精力验证这是一个机器生成的答案,而不是自己写一个,其中包含更少的垃圾和冗长。 2022年12月5日12:14
  • 是的,我想你是对的,询问具体细节可能比回答整个问题更有价值。
    – 用户492203
    2022年12月5日12:23
  • 2
    “来自chatgpt的未修改答案应该被禁止”但如何检测chatgpt输出是否未经修改? 2022年12月5日12:55
  • 2
    你不一定能确定答案(好吧,你可以试着问同样的问题,看看你是否得到了类似的答案),但如果答案明显是低努力/错误的,那么应该删除它。如果答案没有问题,那么chatgpt是否参与其中就不重要了。
    – 用户492203
    2022年12月5日14:05
  • 这是一个帮助自己而不是他人的有用工具。我将chatgpt视为在堆栈溢出上发布问题的替代方法。
    – 金比
    2022年12月5日15:00
  • 22
    如果用户在发布前花时间浏览自动生成的答案并验证其正确性,请将其来源记入贷方(即使对于自动生成的回答来说这实际上是可能的),并避免剽窃等,并以合理的速度发布这些答案(而不是让网站充斥糟糕的答案),并根据评论中的反馈对其进行改进(而不是只是将其倾倒在网站上然后放弃)——然后我想很难判断它们是自动生成的。但在这一点上,它与完全由人类写的答案几乎没有区别。
    – V2喷砂
    2022年12月5日15:47
  • 20
    相关XKCD:xkcd.com/810
    – V2喷砂
    2022年12月5日15:51
  • 7
    @iBug作为一名软件开发人员,我每天都在使用ChatGPT,但我不同意。这基本上是StackOverflow的一个快得多的版本。 2022年12月12日22时21分
  • @NikS正如其他人多次指出的那样:生产速度要快得多貌似有理的这些答案给堆栈溢出带来了比看起来更大的问题。 2022年12月13日7:27
  • 如果你能验证它,那么你应该自己写答案。“根据需要尽你所能纠正它”,如果你没有足够的知识,你会让ChatGPT的错误溜走吗?这是个坏主意
    – 共生体
    2022年12月19日0:28
  • @V2Blast更相关:使用ChatGPT可以证明是自我参照的(这根本不是一件好事)
    – 机械性 国防部
    2022年12月28日13:44
  • 2
    我喜欢VisualStudio/code中现有的脚手架工具并没有受到攻击,但使用GPT是如此。这是一场枪杀人的争论,而不是人们(用枪)杀人的争论。整个帖子有很多不成熟之处。此外,这里提出的论点就像GPT正在吐出1000行没有人理解的方法。如果你在SO上的任何地方复制粘贴一个答案,而没有对其进行审查,那么这就是问题的根源,而不是它是否来自GPT、VS扩展或MSDN论坛。
    – 松饼人
    2023年1月1日6:58
  • 2
    @iBug(智能错误)-“……验证机器生成的答案比自己编写答案需要更多的时间和精力……”如果你的母语是英语,这可能是真的。然而,对于非第一语言的英语使用者来说,编写自己的答案可能比验证和调整人工智能生成的答案要耗时得多。 2023年1月17日4:38
  • 1
    我们在这里所能做的任何事情都不能说明它的正确性,这对它的改进是有价值的@拉胡尔
    – 凯文·B
    2023年2月7日22:49
  • 1
    “我认为应该禁止ChatGPT中未经修改的答案”,你如何证明这一点,并且没有必要禁止无法证明的东西。 2023年4月3日16:03
12

我使用ChatGPT的次数越多,就越同意这一政策。我问它“你能解释业余无线电执照的不同类别吗?”它说:

美国有三类业余无线电执照:技术员执照、普通执照和附加执照。每类许可都有自己的一组特权和要求。

技师级执照是业余无线电操作员的入门级执照。它允许持牌人在30兆赫以上的所有业余无线电频率上操作,包括非常流行的2米和70厘米波段。技术许可证持有者不允许使用HF(高频)频段,这是用于远程通信的频段。

通用类许可证是中级许可证。它允许持牌人操作所有业余无线电频率,包括HF波段。普通级许可证持有人还可以使用更高功率的变送器,并操作技术员许可证持有人无法使用的某些类型的设备。

特级执照是业余无线电执照的最高级别。它允许持牌人在所有业余无线电频率上工作,包括高频波段,并使用法律允许的最高功率水平。特级许可证持有人还可以使用更广泛的设备,并以特定类型的专用模式操作,例如数字模式和卫星通信。

要获得业余无线电执照,个人必须通过由志愿考官团队管理的笔试。考试内容包括业余电台的运行规则和规定,以及电子学和无线电理论的基本概念。考试的难度随着每一类驾照的增加而增加,而额外的驾照是最难获得的。

这个看起来写得很好的答案在几个方面是错误的。

  1. 技术许可证持有者可以使用某些高频波段的某些小部分,但有限制。
  2. 一般许可证持有人可以使用大部分乐队,但在许多频带内都有Extra-only频率。
  3. 在甚高频和更高频段,所有持牌人都享有完全相同的特权。普通许可证持有者能够使用比技术人员更高的功率在HF波段上是正确的,但这并不是普遍正确的。
  4. 额外被许可方具有与普通被许可方相同的权限。
  5. 实际上,Extra可以使用的任何收发器也可以由普通许可证持有者使用。
  6. 甚至技术人员也可以使用数字模式和卫星。所有被许可方都可以使用所有模式;它们只限于某些频率。

如果/当开发出更好的AI来回答编程问题时,我认为采用授权的方式发布AI答案会很有帮助,例如我从先前的回答中得到的建议,但在更多地使用ChatGPT之后,我意识到这还不是人工智能。

15
  • 2
    @Rubén我之前发布了一个反对禁令的答案,并建议了一种允许人工智能回答的方法,但在更多地使用ChatGPT之后,我认为这在此时不是一个好主意。我不想删除我的旧答案,因为我仍然认为如果/当它变得足够好,可以用来回答SO问题时,这将是处理AI的好方法。
    – 某人
    2022年12月11日17:38
  • 16
    描述无线电执照的准确性似乎与堆栈溢出的主题。 2022年12月11日17:38
  • 44
    @宫城先生,但这仍然是一个很好的例子,说明ChatGPT听起来非常有知识和自信,但完全错了。
    – 某人
    2022年12月11日17:39
  • @某人这是真的。这不会触发我通常遇到的任何危险信号。有趣的是,它也不会触发我在ChatGPT答案中需要注意的任何事情。 2022年12月11日17:40
  • 10
    请记住,这个“问题”不是“要求无论什么“。在发布禁止使用chatGPT的帮助文章之前,可以提供有关如何处理这种情况的反馈,但我认为没有任何理由用“想法”或“意见”来争论这个问题
    – 威基特
    2022年12月11日17:43
  • 1
    @鲁宾,所有其他解释人们为什么支持或反对这项政策的答案也都偏离了主题?我看到有很多这样的帖子,觉得可以再贴一个。
    – 某人
    2022年12月11日17:44
  • 每个“答案”都应该与问题直接相关,如果你想批评其他答案,通常应该直接对相应的答案发表评论。如果一条评论没有提供足够的空间,那么可以发布另一个答案,但它应该包含一个指向被批评帖子的链接,但前提是这与问题直接相关。。。答案不应偏离问题主题。
    – 威基特
    2022年12月11日17:48
  • 2
    @鲁宾,我并没有批评任何答案。我只是提供另一条支持该政策的信息。
    – 某人
    2022年12月11日17:49
  • 这不是这样的地方,也不是重新考虑MOD设置的临时禁令的地方。
    – 威基特
    2022年12月11日17:50
  • @鲁宾因为它是暂时的,这意味着它可能会结束。我建议在ChatGPT显著改善之前不要结束。
    – 某人
    2022年12月11日17:53
  • 看起来你错过了网站上关于GPT-Generated内容的新帮助中心文章和横幅
    – 威基特
    2022年12月11日17:54
  • ChatGPT的答案大多数时候都很笼统。如果你对某个话题一无所知,但还不足以了解更多关于某个具体问题的知识,更不用说解决问题了,那可能会很好。它绝对不是一个解决问题的工具,尽管它是一种搜索引擎,可以让你对主题有一些大致的了解。这就是ChatGPT在我看来的现状。 2022年12月11日22:33
  • 这是一个关于答案是如何被灌输的谬论的例证。Extra class手册包含了其他手册中没有的关于卫星的章节,它仅作为该许可证考试中深入讨论的主题出现,但它与该许可证允许的内容无关,不包括其他许可证。类似地,关于Oracle的问题可能最终会变成ISO SQL,反之亦然K7COI公司
    – 榴莲
    2022年12月13日18:42
  • @宫城先生,我不同意。这是一个很好的例证,通过文本关联的虚假外观来说明农业答案的谬误。
    – 榴莲
    2022年12月13日18:44
  • 只要它是一个可以在某些情况下使用的答案,并且周围没有人对此提出异议,它就是一个有用的答案(有条件的) 2023年6月17日10:12
12

我对人工智能生成的答案的看法是:

使用ChatGPT和类似的服务非常容易。它可以与谷歌翻译相媲美。如果你想要一个AI生成的答案,那么你只需使用其中一个服务即可。

与语言网站进行比较。如果你要求翻译,那么你要找的不是谷歌翻译的产品。如果你想从那里得到什么,那么你会使用该服务,而不是在论坛上提问。

我认为最好假设一个在论坛上提问的用户已经尝试了这些易于使用的服务,但发现它们并不令人满意。请注意,我并不是说他们可能已经这样做了。只是假设一下是好的,因为你应该回答一个问题,就好像ChatGPT或谷歌翻译对提问者来说还不够。

12

今天我很震惊地看到了一条横幅“了解更多关于堆栈溢出的AI”。

非常地希望并期待禁止在so/SE上使用ML/LLM(所谓的“AI”)写作的禁令将继续。

我们对此有什么更新吗?

6
  • 5
    无论好坏,我们都应该很快
    – 凯文·B
    2023年7月27日18:15
  • 1
    我得到了“新!溢出AI:社区和AI走到一起”(链接到烟囱溢流实验室) 2023年7月27日22:54
  • 1
    如果你点击横幅,你会发现它与人类用户发布LLM生成的答案没有多大关系。时机可能不太好,但他们提出的想法确实有一些优点。
    – 用户8681
    2023年8月4日13:31
  • 堆栈溢出和堆栈交换这两个术语的范围变得模糊了。在SE,这里是一个新手网站。。。genai.stackexchange.com
    – MT1公司
    2023年8月27日7:17
  • @米拉比洛斯meta.stackexchange.com/questions/79593/…
    – MT1公司
    2023年8月27日7:21
  • @user10186832完全无关 2023年8月27日13:40

你必须登录来回答这个问题。

不是你想要的答案吗?浏览标记的其他问题.