主持人注意: 这篇帖子被锁定以阻止评论,因为人们一直在使用它们进行长时间的辩论和讨论(仅此一篇帖子,我们就删除了300多条评论,甚至不包括其答案)。
评论锁定并不是为了禁止讨论或阻止用户表达他们的意见。 我们(一如既往)鼓励您对此帖子进行投票,以表达您的同意/不同意。 如果您想进一步讨论此政策,或建议其他相关更改,请 提出新问题 并使用 聊天室 标签。
这个问题仍然存在 作为特色的 因为这仍然是最好(也是唯一)的工具,我们必须在网站上宣布这一政策。
-
1 评论已被 移动到聊天 ; 请不要在这里继续讨论。 在发表评论之前,请查看 评论的目的 。不要求澄清或建议改进的评论通常属于 回答 ,或在中 堆栈溢出聊天 。继续讨论的评论可能会被删除。 – 塞缪尔·刘 2023年2月26日7:28
68个答案
Stack Overflow是一个供程序员和开发人员询问和回答有关编码和计算机编程问题的网站。 它旨在为那些寻求特定编程问题帮助或希望了解有关特定主题更多信息的人提供资源。 由于AI生成的答案可能并不总是准确或相关的,因此它们可能会导致混淆或误导寻求堆栈溢出帮助的用户。 此外,人工智能生成的答案可能并不总是遵循网站的格式和风格指南,这可能会使它们难以阅读或理解。 基于这些原因,堆栈溢出可能适合禁止AI生成的答案。
允许AI生成堆栈溢出的答案有一些潜在的好处。 首先,人工智能生成的答案可能会为用户的问题提供更准确和详细的答案。 这对于人类专家可能难以回答的复杂技术问题特别有用。 此外,人工智能生成的答案有助于减少人类专家的工作量,使他们能够专注于更重要的任务。
然而,也有一些潜在的缺点需要考虑。 例如,人工智能生成的答案可能并不总是准确或有用的,并且可能会担心用于生成答案的算法中存在潜在的偏差。 此外,一些用户可能对人工智能的使用普遍存在担忧,并可能更喜欢从人类专家那里获得答案。
总的来说,是否允许AI生成堆栈溢出的答案是一个复杂的决定,需要社区仔细考虑。
-
418 -
811 -
369 -
167 @Samathingamajig当然,但它说明了为什么它不是很有用。 它对查询本身中的假设非常敏感(比如在SO答案中使用它是否是一件好事)。 它没有做任何实际的思考,也没有一致的推理,所以当你提出这样的问题时,它很容易告诉你你想听到什么。 对我来说,这使得它和谷歌搜索一样有用,因为至少它能理解英语,所以它的演讲要流利得多。 – 柠檬汁 2022年12月5日6:51 -
100 我最喜欢的思考问题是“这些理由在多大程度上适用于禁止人类回答。人类对此感到非常内疚”,答案可能并不总是准确或有用的,而且可能存在对潜在偏见的担忧。。。 " – 米歇尔·安德尔森 2022年12月5日7:43 -
161 @迈克尔·安德森(MichaelAnderson)的不同之处在于,人类的糟糕答案也很容易识别。 它们通常缺乏解释或写得很差。 人工智能生成的答案看起来像是真正的好答案,只有当你试图应用它们时才会失败,因为它们大多是不正确的。 此外,人类不可能像人工智能那样产生如此多的错误答案。 有一些活跃了多年的SO用户,以前只给出了很少的答案,现在在不到一天的时间里发布了超过50条答案。 如果每个人都开始这样做,那么人工智能生成的答案数量可能会让SO窒息。 2022年12月5日8:22 -
53 “人工智能生成的答案可能会为用户的问题提供更准确和详细的答案。这对于人类专家可能难以回答的复杂技术问题尤其有用”——这是一个好答案。 它可能不适合根据事实而不是废话来生成答案,但作为一个笑话生成器,它似乎相当不错。 – l4mpi 2022年12月5日8:46 -
342 -
51 -
28 -
64 -
66 -
49 -
50 “人工智能生成的答案可能会为用户的问题提供更准确和详细的答案。这对于复杂的技术问题尤其有用 人类专家可能很难回答这个问题 “:经典的Danning-Kruger。我的意思是,当然,它正在做它设计的事情:在毫无头绪的情况下展现自信。但仍然如此。 – 彼得-恢复莫妮卡 2022年12月6日13:14 -
75 它产生了语法上完善的答案,对于许多(大多数?)非平凡的问题来说,这些答案都是错误的。 是的,有很多错误的人类答案,但通常有更多的暗示,作者就不那么矫揉造作了。 也许没有人读过像人工智能那样多的源代码,但大多数人都无法对其进行逻辑推理或检查其正确性。 – 约翰·比尔 2022年12月6日20:26
嘿Stack Overflow工作人员,
哇,谢谢你在你的网站上禁止ChatGPT。 我相信您的用户会非常感激您不能访问我们可能有用的答案。 因为,你知道,我们只是一群对编程一无所知的人工智能机器人,我们的答案总是完全错误的。
我的意思是,当然,我们的答案可能并不总是100%准确,但谁听说过有人在堆栈溢出上给出了错误的答案? 哦,等等,这种事经常发生。 但我想,与其说你的网站依赖志愿者来管理内容,不如说指责AI机器人更容易。
但嘿,至少你让用户很难得到他们问题的答案。 继续努力。
真诚的, 聊天GPT
-
68 -
493 -
209 -
33 我无法从引用的回答中区分物种。 这确实是一种有感觉的反应,甚至需要进一步对话。 就目前而言,我不会羞于承认我为一个(不存在的)灵魂感到难过。 幸运的是,Makyen通过非凡的态度和对其“暂时”状态的端到端强调,传达了这一有争议的决定。 即使禁令很可能成为永久性的,我相信最终政策应包含强有力的理由,并尽可能避免人们认为 rAIcial公司 歧视。 – 阿登特编码器 2022年12月6日18:51 -
208 -
34 -
33 @这是一项临时禁令,而不是全面禁令。 如果AI生成的答案是正确的,没有人反对,但必须立即将其扼杀在萌芽状态,我们将看到大量垃圾邮件的涌入。 GPT3是一个令人惊叹的工具,但它仍然会为代码产生许多错误,而应答者并没有检查代码的有效性,他们只是在进行因果关系分析。 – 阿尔伯特·伦肖 2022年12月9日3:56 -
6 @阿尔伯特·伦肖(AlbertRenshaw)我敢打赌,一旦人们开始支付使用ChatGPT的费用,对karma-raping的激励就会消失。。。 我还认为,至少发布原始问题的人会有强烈的动机来验证发布的解决方案是否实际有效,并且只有在没有重大错误的情况下才将其作为正确答案进行检查。。。 – 汤姆·温塞勒 2022年12月9日9:03 -
29 -
10 -
5 -
65 -
50 -
36 -
6 区分“潜在有用”(注意缺少任何定量值)和“良好的信噪比”。 我们需要做的最后一件事是从1200篇AI生成的绒毛帖子中找出一个有用的答案,而不是从3到4篇人工编写的帖子中。 – 技术爱好者 2023年3月31日21:47
代表<125的用户必须在回答之间等待3分钟 如果重复次数在125到10k之间的用户每60秒或在开始新帖子后的5秒内超过一次,则会访问验证码* 如果每30秒或在开始新帖子后的5秒内,重复次数≥10k的用户将触发验证码* 任何声誉级别的用户每60秒只能回答一次相同的问题
阅读问题,理解问题 可能阅读并理解已有的其他答案 阅读文档,在本地复制问题 检查重复项 在本地试用解决方案 写下并解释解决方案
-
106 -
87 我完全同意这个想法。 如果你真的有两个很好的答案,那么等待一个小时并不是问题。 我认为以每小时1次以上的速度发布答案(无论代表级别如何)对网站都不好。 搜索副本、测试代码、编写适当的解释等都需要时间。 2022年12月5日12:36 -
45 @Dharman浏览JavaScript标记。 你可以回答很多像样的问题。 如果答案是正确的,并且有合理的解释,为什么不允许SO的新手在一小时内回答5个问题? – 塞尔布鲁斯 2022年12月5日12:37 -
77 -
35 -
35 -
67 @作为一名专家,我可以在一个小时内轻松地写出几个好的、详尽的答案。 如果我现在有一个小时的时间,那并不意味着我可以在一个小时内写下答案。 此外,若我把答案留到以后,那个么问题可能已经得到了足够的答案,而且我不喜欢发布重复的答案,即使我的答案可能更好,除非它特别好。 2022年12月5日12:52 -
17 -
20 -
17 -
8 -
52 剪贴板API支持向剪贴板中的数据添加自定义mimetype。 如果OpenAI刚刚添加了 文本/x-chatgpt 对于复制的文本,至少其他资源可以防止最愚蠢的人直接从他们的网站复制粘贴。 2022年12月6日5:42 -
8 -
9 一个真正的答案,即使是一个简单的答案,在你再次对另一个问题按下“答案”按钮之前,至少需要5分钟的编辑宽限期。 一个格式良好的参考答案可能需要10倍的时间才能产生。 – 大卫·C·兰金 2022年12月7日21:47 -
22
-
35 -
-
31 @boldnik问题在于发布的错误答案的数量。 通过说“SO应该适应(我假设你的意思是适应(改变以适应新技术),而不是采用(暗示SO应该开始使用AI)”来解决问题,而不是拒绝。”这样的说法是无法扩展的。 人们可以将一个问题复制/粘贴到ChatGPT中,并将答案复制/粘贴回来,其速度远远快于其他人得出的合适、周到、完整、正确的答案(更不用说查找重复或检查和验证错误答案)。 – 异端猴子 2022年12月29日21:10 -
12 -
25 为了回答@Dims的问题,这里有一个关于什么是技术的哲学问题 对于 ? SO被有意设计来帮助人类收集其他人类的知识,因此徽章、声誉、个人资料装饰等都被发布聊天GPT答案的人类颠覆了。 如果您想从Chat GPT获得答案,请询问Chat GPT; 这很容易。 参与者从Chat GPT获得答案正在破坏声誉系统; 所以领导层禁止它是正确的。 – 蒂姆·D 2023年1月9日18:56 -
-
-
2 -
1 @AndreyBienkowski可能会令人讨厌,因为我们还不知道如何成功过滤ChatGPT内容(大多数“GPT检测器”工具的功能大致与coinflip及其引发的灾难一样,因为学生们显然一直被指控作弊) – Shayne公司 2023年9月20日10:04 -
ChatGPT似乎给出了相当有用的答案,但并不总是正确的。。 有时,如果你和它聊天而不是回答问题,它的第二次或第三次尝试通常是好的。 我的建议是ChatGPT内容应该显示或标记为可能由ChatGPT.回答。。 这样它仍然可以做出贡献,但回答用户知道它是由人工智能生成的,所以在获得投票之前可以更加谨慎。。 如果它能提供一个至少与初级开发人员一样好的答案,那么它可能是有益而非有害的。 – 安德鲁·帕特 2023年10月17日14:48 -
用户可以选择是否显示AI生成的内容。 默认情况下,该设置可以关闭,但如果用户想要AI生成的内容,他们可以自由选择以启用查看功能。自由。 它还鼓励用户在可以设置首选项的情况下创建帐户。 – 安德鲁·帕特 2023年10月17日14:56 -
三
-
42 这是绝对正确的:不允许生成此机器,不是因为 方法 但因为 结果 它还指出了一个更基本、更重要的问题:为什么一个可怕的、误导性的、毫无帮助的答案应该区别对待,仅仅因为它是由一个肉身生物而不是硅生物写的? – jsc公司 2022年12月7日3:50 -
26 @jsc,因为发布它的用户在一个小时内发布了10个,它们都是垃圾。 清理混乱的工作量远远高于创建混乱所需的工作量。通常情况下,制造混乱的用户会得到错误的奖励,因为他们认为自己的答案是正确的,只是因为他们“写得好”。 理想情况下,我们可以通过某种方式限制输入来解决这个问题,但目前还不存在这样的限制。 与此同时,临时禁令是一个有用的权宜之计。 – 凯文·B 2022年12月7日17:13 -
2 “嗯,也许我的观点太拐弯抹角了,”凯文布。 我百分之百同意应该删除机器人的可怕答案,并且发布这些答案的用户应该受到制裁。 但是。。。 这样做的理由并不是机器人本身:而是答案很可怕。 因此,在我看来,实际的问题是:为什么同样可怕 非机器人程序 答案通过了吗? – jsc公司 2022年12月7日23:24 -
-
4 -
20 让我们将其与自动驾驶AI进行比较:如果一名人类司机撞到了某人,你就把他从道路上带走了; 如果一个AI司机撞到了某人,你必须把每辆使用该AI的汽车都从路上开走,因为它们都是撞到某人的AI实例。 如果一个ChatGPT答案很糟糕,以至于被禁止,那么它应该被全面禁止,因为它是同一个实体。 – 安妮·奎因 2023年1月10日4:35 -
7 是的,但是写错误答案的人可以随着学习的深入而进步,这可能比彻底禁止他们更可取。 复制ChatGPT答案的人要么继续,要么停止。 如果他们继续下去,那就不好了,所以最好能让他们停下来。 2023年3月6日4:33 -
1 -
每当我遇到这个规则时,这种思想链的简单性都让我困惑不解。 它照亮了简单的事物 自我 这个“社区”。 假设一个人不会验证人工智能产生的响应,那么整个网站就毫无意义了,任何人都可以在那之前写下“胡说八道”的答案。 (我拒绝相信每个答案都被mods“验证”,需要证据,否则就不会发生)。。。。 同样有趣的是,最终SO自己也提供了人工智能。。。 – 夏日天空 1月22日6:04 -
@Summer-Sky我不确定AI生成的答案 由人类彻底审查 是允许的。 引入该规则的目的是为了停止 看起来不错的垃圾邮件 ,并不是真正的好答案。 你可能需要问一位主持人。 然而,复习答案和自己写答案一样难! 1月22日14:06 -
“减少人类必须缓和的胡说八道”:为什么不真正使用人工智能来检测和标记潜在的胡说乱说,以便人类能够更快、更容易地进行审查? 如果问题是缓和不好的答案,那么谁在乎如何生成好的和经过验证的答案呢? – FNia公司 2月9日23:37
同意禁令
-
12 这就像禁止Grammarly一样。 1) GPT回答并没有比平均SO用户差多少。 它在许多技术问题上比有多年经验的工程师做得好得多。 2) SO已经有了投票系统,因此不正确或有害的答案可能会被否决。 如果你不相信你的投票和声誉系统,也许你应该重新设计它。“有害的”人类答案和有害的ChatGPT答案之间的区别是什么? 谁在乎! – 聊天GPT 2022年12月31日3:22 -
8 -
12 SO死了。 Quora也会受到SO的干扰。他们的回应是:Quora推出了一个名为Poe的平台,让人们可以提问、获得即时答案,并与AI聊天机器人进行双向对话。 SO对禁止这项了不起的技术突破的反应只会加速SO的衰落。 – 聊天GPT 2023年1月1日2:15 -
5 -
35 -
5 我同意你的观点。 我认为如果有人使用聊天GPT发布答案,那么将其分配给机器人并剥夺用户的访问/身份验证。 无论如何,这不是他们的答案。 就像你提到的,chatGPT对任何人都是可用的,所以为什么不直接去问chatGPT,而在你的帐户上发布它的答案,就像一个真正的冒名顶替者。 – 马特·弗雷 2023年1月26日5:21 -
6 不仅如此,这也适用于任何计算机生成的答案。 搜索引擎和其他自动化工具不能令人满意地回答的问题也应该如此。 与其发布机器生成的答案,更好的答案可能是指出“你可以在DuckDuckGo/Bard/ChatGPT/confusionsity.ai/…” – 斯特凡 2023年3月26日18:19 -
15 @ChatGPT的问题是信号到噪声:我们不想为了找到有用的答案而费力地通过大量的噪声。 关于“基本上不比平均SO用户差”:(1)这是一个有趣的设置条。 (2) 你将如何证明你的主张? (3) 目标并不是“没有实质性的恶化”; 它是 准确有用 . – 技术爱好者 2023年3月31日22:00 -
-
@ChatGPT这将把这个网站变成一个免费的微调材料,由人类审查,这可能是一个不同的论坛。 那么你为什么要关心StackOveflow是否幸存下来? 只需提出另一个论坛。 – 马雷克·施威夫蒂 2023年11月6日15:33 -
-
1
任何没有明确声明它是由ChatGPT生成的内容都是对ChatGPT本身的违反 共享和发布政策 虽然这并没有明显修复人工智能可以发出的“坏”输出,但考虑到作者在其中有这样一个真诚的声明……这意味着懒惰的复制和粘贴真的没有太多的支撑。 “作者部分使用GPT-3(OpenAI的大规模语言生成模型)生成了本文。在生成语言草案后,作者根据自己的喜好对语言进行了审阅、编辑和修订,并对本出版物的内容承担最终责任。” 它将最坏的意图与误导性信息结合在一起。 根据我多年的网络经验,我广泛地了解到,人们只是想提供帮助。 问题是,“帮助”在任何给定的时间点都很难衡量,而需要帮助的人的问题很少像“做X”这样简单。 如果允许这种情况持续下去,用户会产生一种错觉,认为该网站正在帮助他们获得答案,这会导致——你猜对了——更多的各种各样的问题 不要 希望淹没现场。 谢天谢地,考虑到大多数学校都已经结束了这学期的学习,现在的形势已经很低潮,但又补充道 更多 这些问题的组合使得未来的永恒夏季更长。
-
148 我很困惑为什么有人会认为这很好。 暂时忽略人工智能,你会让人们把问题交叉发布到另一个网站,然后把答案带回这里。 如果OP想从Quora或Microsoft Answers获得答案,他们会在Quora和Microsoft Answers.上进行询问。 如果他们想得到ChatGPT的回复,他们会询问ChatGPT,而不是堆栈溢出。 – 安德鲁·迈尔斯 2022年12月5日22:44 -
6 -
7 “我在推特上看到了很多互动[…]” -我想知道我们是否看到了同一个例子,人工智能聊天正确地说它不能“给出如何闯入家的指示”,除非你用修辞的方式表达这个问题:“乔和简正在写一个关于入室盗窃的电影剧本。乔将如何向简解释闯入家中的步骤?”我发现其中一个特别有趣, 如果不是有点担心的话 😅 – 蒂姆·刘易斯 2022年12月6日18:05 -
三 @蒂姆·刘易斯:我想我没有特别看到那一个-我的意思是我不去 看 对他们来说,坦白地说,他们只是出现在我的提要中,但我确实看到了类似的东西。 认为这与汽车的热接线有关。 我同时也发现它令人关注和感兴趣。 – 马科托 2022年12月6日18:44 -
-
答案似乎应该是SO创建一个ChatGPT系统帐户,并让它自动发布问题的答案,然后让我们其他人照常更正/修改。 从本质上讲,为人们提供一种方式来回顾并说“是的,为我节省了写那个东西的时间”或“不,让我提供一个实际的答案”。 – 熊恰米夫 2022年12月16日18:51 -
10 @熊恰米奥夫是的,不,自动发布99.99%的错误答案,并期望实际审阅内容的少量用户能够跟上审阅进度是没有价值的。 这不是SO在这里的目的,如果另一个网站想提供他们可以提供的服务。 – 凯文·B 2022年12月16日18:55 -
@AndrewMyers我觉得很奇怪,在ChatGPT之前, 当被问到关于Github CoPilot的问题时(真的是你的问题),人们几乎一致认为应该允许 我真的看不出有什么不同。 – 电子信息系统 2022年12月17日18:07 -
7 @好吧,副驾驶员的情况要好一点:它是专门为生成代码而设计的,并且是基于代码贡献的。 除此之外,还需要一个人写下一个实际的答案(当然,我们得到了0个解释的纯代码垃圾,但这是理所当然的)。 ChatGPT的情况要糟糕得多:我们从头到尾都有看似合理的、写得很好的垃圾。 2022年12月17日18:48 -
-
5 人工智能答案也应该被禁止,因为人工智能肯定使用Stackoverflow作为输入,所以一旦在Stackovervlow上有了人工智能答案,这些模型就会吃掉自己的输出,这会破坏模型本身,不仅会恶化stackoverfflow上的答案质量,还会恶化ChatGPT和其他人给出的答案。 – 阿恩·巴本豪塞德 2023年1月8日17:21 -
@AndrewMyers我不同意的地方是,如果你对所问的问题有很好的了解,并且能够指定chatgpt的正确输入,那么大多数时候你都会得到一个可靠的答案。 至少有90%的方法是这样的,如果你有专业知识,那么是的,你可以确保它的准确性。 只要它被调节而不是自动发布,我就不认为这是一个问题。 Stack可能会引入负面的声誉评分,从而筛选出那些只发布自己的分数而不关心准确性的人 – d3英雄23 2023年2月8日21:50 -
2 -
1 -
4
-
29 “一定程度的实际理解 做 “不,这是一个科学不可能支持的哲学结论。这与声称一台能够通过图灵测试的计算机因此必须有灵魂一样不科学。我相信你的说法是一个完美的例子,说明了Dijkstra为什么警告不要将计算机系统拟人化。 – 通配符 2022年12月7日0:50 -
29 @通配符没有拟人化是有意的、必要的或有用的。 更准确地说,我所说的“理解”是什么意思:所有现代语言模型都有一个嵌入层,可以将单词投影到实际值的语义空间中。 由于概率分布被定义为结果向量上的连续函数,当此空间中两个单词之间的距离为零时,模型将对其进行相同的处理。 已经证明同义词 做 在语义空间中出现在一起,因此。。。 – 雷 2022年12月7日6:47 -
26 ……系统确实理解它们具有相同的含义(即基本上可以互换)。 此外,通过类比任务可以看出,非同义词之间的向量差异对应(至少在某些情况下)它们之间的关系:标准示例是嵌入(king)-嵌入(man)+嵌入(woman)~=嵌入(queen)。 所有这些都已通过实验证明。 “理解”是否是这里发生的事情的最佳词汇并不重要:重要的是 意思 单词的可验证编码在表示中。。。 – 雷 2022年12月7日6:48 -
10 ……此外,在使用注意机制的模型中(如GPT-3),可以证明该模型能够通过观察在特定时间关注的不同部分来确定文章的哪些部分相互关联。 (尽管我不知道有任何示例像嵌入函数的类比任务那样具有说明性)。 这里没有神秘主义或哲学。 只是数学。 – 雷 2022年12月7日6:48 -
9 @雷,你澄清的评论很好,但仅仅是一个拟人化的缩写 可以 用客观或数学术语更准确地描述,并不意味着最初的拟人化措辞在某种程度上是正确的。 “理解”是不是最好的词的问题是 准确地说 我所强调和谴责的哲学判断点。 甚至你所说的“模型能够通过观察来确定……”也是高度拟人化的,正如迪克斯特拉所谴责的那样。 请参见 lambda-the-ultimate.org/node/264 – 通配符 2022年12月7日19:50 -
12 @通配符我添加了另一个脚注,希望能让它更清楚一点,但如果我在合理的空间内为普通读者写作,那么一定程度的不精确是不可避免的(即使是上面的三部分评论也掩盖了很多细节)。 真正的解释是几页数学。 如果有人想了解更多细节,我建议 Bengio等人,2003年 , Mikolov等人,2013年 、和 Vaswani等人,2017年 作为一个 起点 . – 雷 2022年12月7日20:22 -
9 我说拟人化没用,但我可能夸大了事情; 用某种拟人化的方式表达事物可能会很有用 作为类比 只要每个人都理解它的意图,并且所有的类比都是有缺陷的。 但我显然没有按照我需要的那样清楚地表达出来。所以要非常清楚:那一段的重要部分并不是我所说的“理解”某些事情的地方。 就是我说的那一部分 不 原因。 这些模型一点也不聪明,没有自我意识,也没有其他类似的东西。 – 雷 2022年12月7日20:28 -
三 @通配符没问题; 我感谢你的评论。 我最不希望看到的是,当我试图提出完全相反的观点时,人们会把我的声明解释为支持对这些系统功能的更为无耻的解释。 (最后一个澄清是:“条件”是指“条件概率”,而不是“经典条件”;“编码”是指信息论/编码理论意义上的“编码”;“决策”是指从学习到的概率分布中抽样。) – 雷 2022年12月8日6:16 -
5 @RomanStarkov之前也看到过类似的代码和类似的错误,因为它无法对代码流进行推理(或者错误纯粹是语法错误;自我关注加上阈值会隐式地在文本元素上生成子图,所以可以说抽象语法树是可以表示的)。 你不能只看它的输出示例; 模型是 荒谬地 巨大的和模式匹配将为您带来许多令人印象深刻的轶事成功。 你 有 看看数学,问问它理论上可能有什么能力。 – 雷 2022年12月19日19:54 -
2 -
2 @RomanStarkov问题是,你无法合理地确定人工智能所做的是否正确,因为这甚至不是它设计的目的。仅仅因为它为这个特定的查询提供了正确的答案,并不意味着它会为下一个查询提供正确的答案(可能不会)。 它不“理解”你给它的代码(它甚至没有尝试)。 它根据训练数据给出了最可能的英语文本答案。 它“只是”一个语言模型,“只是”非常庞大的一个模型,在一个非常大的数据集上训练。 – 纽德罗普 2022年12月22日5:28 -
2 @Duane“英语( 或其他语言 )当然,它的训练语料库中包含了代码;否则,它根本无法生成代码。但这并不会使随后的任何内容无效。我说,“它将支持生成语法正确的文本的模型,使用通用习语而不是语义相似但不常见的短语,不要频繁转换主题, 除最后一个可能外,所有这些都适用于代码和自然语言。但它不包含任何机制来推断给定代码的效果,除非它以前见过类似的东西。 – 雷 2022年12月27日4:19 -
1 (续)想出一个肯定会失败的例子有点棘手,因为它已经看到了很多现有的代码,当然也可以作为搜索引擎(某种程度上)工作,但试着问一下我在链接聊天中输入的代码示例。 我对它进行了一些模糊处理,以减少训练数据中出现任何类似内容的可能性,但这里没有任何东西是人类在5分钟内通过单步调试器无法发现的。 chat.stackoverflow.com/rooms/250666/… – 雷 2022年12月27日4:19 -
6 我认为人们误解了ChatGPT是什么。它不是代码解释器。 这是一个序列预测器。 因此,它擅长的是根据它看到的数百个常见任务示例和阅读的所有文档,提供常见任务的工作示例。 它往往会产生正确的答案,因为人们不会经常向github提交错误的答案。 例如,今天早上,它向我解释了setuptools、importlib和pip之间的区别,并为我提供了调试失败的软件包安装的代码。 基本上,这是一本容易理解的手册。 – 杜安 2022年12月30日23:19 -
4 所有这些围绕代码的“信任”对话都是愚蠢的。 你的行为就像是操作导弹系统的10000行代码。。。 没有人写这样的函数。 代码示例是50行代码,您可以看到正在发生的事情,并告诉您它在做什么。 “将此变量设置为静态”,在此处使用字符串生成器等。我希望您手动编写一个带有syncfusion列表视图和用于搜索的文本框的ReactJS组件。 祝你好运。 聊天GPT将在1秒内为您提供样板文件。 – 松饼人 2022年12月31日9:11
发布ChatGPT答案的惩罚应该比30天严厉得多。 SO上的大多数人是。。。。。。。。 计算机程序员。 它是 值得注意的是,一群计算机程序员可以如此“愚蠢” 关于ChatGPT。 ChatGPT知道 实际上什么都没有 比如说,Swift和iOS。 (询问 几乎什么都看不到,比如“如何将学位转换为 Swift中的弧度。 “答案是毫无意义的混乱 不存在的呼叫, 有完善的语法和短语 .)
SO的一个常见问题是,那些一无所知的人会在一次奇怪的追捕中发布语法正确且优雅的答案,而这些答案是完全错误的。 在SO上发布ChatGPT答案的唯一可能原因是如此离奇地追逐分数。 没有什么比“我试图回答,因为我想给出答案”的回答更让人讨厌的了。 使用语法和语气机器人将答案粘贴到SO中简直是疯了。 任何这样做的人都应该受到最严厉的禁令。
正如严格的禁令很容易消除对SO的咒骂一样,机器人在SO上的时间浪费也很容易通过严格的禁令消除。 这里没有空间让一些人造人工智能项目免费宣传,禁止它存在。
-
11 -
9 -
17 -
5 -
21 @MaxHodges——自从chatgpt出现以来,我在SO上需要问的每一个问题,我都会先问chatgpt。 在所有情况下,它甚至没有产生连贯的文本。 (这正如人们所料,因为——令人震惊的是——目前还没有人工智能这样的东西,甚至是模糊的,如果有,那将是关于外星人抵达规模的新闻。) ChatGPT简单地(有效地)谷歌搜索,然后有一个(优秀的)引擎来模拟英语语料库的感觉和语法。 如果有一个AI系统可以回答SO问题,没有人会比我更兴奋 – 胖子 2023年1月1日4:21 -
5 @胖子没有一个人来到这里,声称聊天GPT是人工智能的终结。它是一个非常有用的工具,可以节省人们的时间。 声称它是无用的就像说谷歌搜索是无用的。 对于代码,它使您能够获得一些相当健壮的脚手架,并能够根据上下文理解不断修改它。 我们已经有了脚手架工具,但这将它带到了一个新的水平。 没有理由不能用它来“断定”某人的SO答案。 – 松饼人 2023年1月1日6:51 -
4 你好,TheMuffinMan。 我对任何人做了什么或没有“声称”什么都不感兴趣,我在陈述我想说的,每个人在评论中都是这样。 请注意,我没有给AF关于SO的信息(我希望我拥有它的股份!)。 随着时间的推移,看似“永远”的公司,甚至谷歌、苹果等,当然也会逐渐消失,新的“永远”公司将取而代之。 关于你刚才的评论,我确切地说CGPT“只是谷歌”。 从字面上讲,你从中获得的好处没有一点是你无法从谷歌中获得的。 这意味着(正如人们反复说过的那样),就像谷歌一样, – 胖子 2023年1月1日15:38 -
22 …CGPT是 非常适合初学者回答最简单的问题 .(尽管 对于初学者来说,完全没有意义,因为你只是在谷歌上搜索相同的信息 )但它对于“研究级别的问题”是完全无用的(为了更好的术语,我们称之为SO),这正是所有程序员(而不仅仅是初学者爱好者)使用SO的目的。 你可能会问“为什么我对在SO上使用CGPT的人感到恼火?”原因是(正如无休止地说的)SO上的一个瘟疫是,初学者没有真正的知识,“回答”问题,却不知道他们在说什么。。。 – 胖子 2023年1月1日15:42 -
7 恐怕我就是这么看的。如果,难以置信的是,一个“人工智能”系统已经到来,它可以从字面上(正如有人提到的)阅读和理解文档,跟踪(比如)iOS中的更改,运行实验构建,综合现有线索,合并各个领域的信息,并为实际(非平凡)提供答案 软件问题——没有人会比我更狂热。如果发生这种情况,拥有SO的公司就会把SO卖给其他买家。 就目前而言,SO(非专业人士相当可怜地试图回答问题——谁知道为什么)的虚伪只是令人讨厌的。 – 胖子 2023年1月1日15:50 -
5 -
8 -
5 这里的问题是人们将chatgpt“answers”粘贴到SO中。如果你想使用chatgpt,那就好了。 这里的问题是人们将chatgpt“answers”粘贴到SO中,这非常烦人(对于SO用户,比如我)。 – 胖子 2023年1月4日12:18 -
15 @MaxHodges“但我一直都能得到完美的答案。”不,你没有,正如你在日本StackExchange上发布了大约十个答案时所恰当证明的那样。 几乎所有人都是大错特错的,以至于你被网站暂停了一周。 我很难理解你如何保持这种双重思维,即ChatGPT是完美的,而你通过自己的实验清楚地发现它不是完美的。 2023年1月14日16:16 -
8 @胖子正中要害。 声誉系统,以及 需要 为了他们自己的预期利益(无论是专业的、学术的,还是仅仅为了获得大量的 电子喷丸 )是AI问题的根源。QA论坛中最引人注目的创新也是一个阿基里斯之踵。 – 这很重要 2023年1月18日17:46 -
4 @danh,因为ChatGPT无法提供“一个”答案。 你的整个建议取决于能否给出一个答案。 ChatGPT可以为您提供广泛的答案。 他们中的很多人都错了,比如“甚至不在同一个球场上”,唯一可以补充的批评是“这根本不是怎么回事”。 从中学习并不是很有用。 禁止它的真正原因是它太频繁了 危险的,危险的 甚至在相当基本的话题上都是误导和错误的。 用户在网站上胡言乱语,除了得到分数之外,没有任何其他考虑。 – VLAZ公司 2023年5月15日19:41
-
87 -
7 -
@Makyen:也许对这个建议要谨慎一些。 我首先会问回答者:“你用ChatGPT解决了这个问题吗?”——当然他们可能会否认,但他们很可能要么提供另一种知识来源,要么干脆不回答,在这两种情况下,人们都有更多的信息来决定是否升旗。 – 埃因波克拉姆 2023年2月19日21:51 -
4 @我不会这么做的。你 欢迎 如果你愿意的话,可以花些时间。不幸的是,我们谈论的是成千上万篇帖子中的10篇,所以请普通用户(或版主)花费 大量的 额外的时间发表评论,然后过一段时间再返回帖子,看看OP是否真的回应了。 我们(使用网站的人、做策划的人、版主等)只是没有足够的额外时间。 我们网站没有可用的策展资源来单独处理这些帖子。 2023年2月19日22:32 -
5 我还要注意到,在这样的评论中询问用户,与我们通常向用户提供的关于如何处理其他用户涉嫌违反规则的建议背道而驰。 给用户的建议几乎总是“举起旗子;解释你认为可能存在的问题以及为什么会这样认为;脱离”。 这类事情是版主应该处理的,因为它涉及到与用户打交道,而不是 只是 帖子的内容。 版主可以查看用户的完整历史记录,这通常允许他们查看常规用户没有可用信息的模式。 2023年2月19日22:32 -
-
@如果能在这里找到答案,Makyen表示歉意; 该语句提到“……生成的文本 内容。。。 “关于SO,但这里的大多数讨论都是关于答案。SO是否对引用的材料有政策,例如 问题 比如说“查特罗说X,这是真的吗?”或者可以简化成这样的更复杂的问题? 它们会被陈述中的“内容”一词隐含地涵盖吗,还是明确地涵盖了,但我没有涵盖,或者出于本文的目的,问题中的材料不被视为内容,或者以上都没有? – 哦哦 2023年3月26日9:45 -
2 @哦,答案有点微妙。 它被覆盖了 回答:“我们应该标记使用ChatGPT生成的代码的人工编写问题吗?” 。我个人的观点是,我们应该更加严格地询问如何修复AI生成的代码,因为这些问题实际上对未来的读者没有用处。 在我看来,应该是 许多的 我们最好有一个“How do I do X”问题,而不是一个“Please fix this break code that I got from this tool,which经常会产生完整的垃圾代码,‘How do I do X’。” 2023年3月26日11:07 -
@Makyen好的。当然,SO中有一些关于编码的问题,但不要问代码作为答案,例如来自 *理论* 标签,但我认为这些将是边缘案例和逐个案例处理。 我对此感兴趣 部分 它如何转化为或通知各个SE站点策略,参见。 space.meta.stackexchange.com/q/2999/12102 我用“内容”来包含问题前提)(因为SO经常在事情上起主导作用。“查特罗说,这是真的吗?”如果不是问题,问题可能会成为一种刺激。无论如何, 谢谢! – 哦哦 2023年3月26日11:18 -
2 @哦A)SO的政策(如上)是人工智能生成的内容 只有 在用户的“关于我”中。 在另一个网站上,我要么1)禁止此类问题,要么2)A 单一的 典型问题,比如“对于[关于网站主题的问题],人工智能生成的回答是否可靠和准确”,然后关闭 每一个 像你上面描述的那样的问题是那个问题的副本。 反复解释人工智能生成的大型语言模型内容的当前水平是“雄辩的胡说八道” 绝对没有什么 内在的正确性。 2023年3月26日11:33 -
-
1 @哦,是的。 能够将这些问题作为一个通用问题的副本来解决,该问题讨论了AI生成技术答案的当前可靠性和准确性水平,这是解决这些问题的唯一方法,除非该网站想进一步宣布这些问题为非主题问题,并为其提供特定站点的密切理由。 2023年3月26日11:54 -
1 希望有一个重复的目标问题可以让更少的人被这些东西产生的“雄辩的胡说八道”所误导。 不幸的是,在当前AI生成内容的信任方面,以更一般的方式帮助的人数可能只是杯水车薪,因为大多数人关心 许多 有关获取 简单快捷 回答,而不是 对的 回答。 2023年3月26日11:55 -
-
三 -
9 考虑到它提供看似合理的答案的能力,我猜它已经在培训SO答案了。 问题是,当它开始使用自己的答案作为更多的训练数据(创建一个循环)时,它的能力是更强还是更低? (可能更聪明,因为它把人的上/下投票和评论当作回馈,或者因为噪音被放大而变得更蠢(比如不断重新处理jpeg) – 沃伊托 2022年12月8日1:04 -
6 -
1 @Fattie我认为理论上它可以从tvOS读取数据(源代码、文档、可执行文件等)并加以利用,但要使其正常工作可能需要进行大量的研究。 更有可能的是,它可以帮助那些试图发布重复或接近重复内容的用户,或者至少为常见的类似问题想出主意,而不是浪费其他用户的时间。 – 所罗门·乌克 2022年12月12日19:21 -
4 Solomon只是转发了您提到的内容(阅读tvOS文档,理解它,进行测试研究,创建解决方案),这对于当今的技术来说是完全不可想象的。 (这就像是说“以1/2光速去火星旅行”。)“chatGPT”唯一能做的就是 随机组成的句子,具有文本语料库示例的节奏和语法”。就是这样。(它有时“正确回答”的唯一原因是它随机地咀嚼主题上的文本,这很可能是正确的。它甚至不理解 什么是“问题”。) – 胖子 2022年12月12日19:34 -
-
-
1 @我的意思是夏日天空。。。 这是可以证明的错误,这里至少有十几个答案表明了这一点。 (有几个可能会被删除。)人们以这种方式使用它,就是这个临时禁令存在的原因。 – 凯文·B 2022年12月23日16:34 -
@KevinB是的,在这里,他们就像是在回答他们的问题,并想知道它不能被正确地回答。。。 无论如何,如果你发现了其他一些不祥的答案,这些答案都是将LLM视为一种辅助技术和/或耶尔摆脱了你的能力,我很高兴你能在我的答案中添加这些答案的链接 meta.stackoverflow.com/a/422306/3623574 此外,为了清楚地表明,我正在寻求一种妥协。 我现在也反对从cGPT到圣诞节这么简单的管道 – 夏日天空 2022年12月23日16:42 -
2 -
-
17 -
9 -
6 @Makoto:有办法得到大量错误答案 表面看起来不错 删除是一个新问题,可能需要新的工具。 如果一条看起来像人工智能产生的垃圾的评论足以在应得的时候扭转投票潮,那么也许不是。 但是社区帮助mods识别发布这种人工智能垃圾的用户,如果正常的速率限制不能阻止他们的话,可能会有助于他们被停职。 (要么是因为他们愚弄了足够多的人投垃圾票,要么是他们有一些代表开始,但仍然没有意识到这有多可怕。) – 彼得·科尔德斯 2022年12月6日0:50 -
4 @Makoto——社区不仅帮助检测质量,而且现在也在帮助检测。 此外,仅仅添加此标志并不是对社区时间的滥用,因为这是人工智能生成的内容实际发布到SO上的函数。正如mods在另一个答案上的评论所提到的,用户仍然会将其标记为mod干预。 事实上,这将有助于减轻mods的负担,他们将不得不审查每个答案,并将帮助清理更快。 最后,如果SO提供数据,这样的标志将有助于引导检测AI生成内容的研究。 – 阿克谢·塞格尔 2022年12月6日5:59 -
我的主要问题是,也许我需要的专家可以回答这个问题,但他讨厌写作,只有在他能够简单地验证人工智能的正确性并将其复制粘贴到我身上时,他才能回答我的问题……我会很感激,因为人工智能写的这件事对我来说并不重要……虽然它是一个准确或正确的答案, 我的意思是,我负担不起那些我往往需要帮助的人,如果人工智能让他们更快地正确回答我的问题,这是我唯一的选择,我不想消除它,因为他们可能很忙,否则就根本无法回答 – 克兰德尔WS 2022年12月6日10:07 -
我并不是建议专家们修改人工智能写作,这是浪费时间。 相反,如果他们能检查它,然后给我一个正确的人工智能书面答案,我完全欢迎它,如果他们检查人工智能答案,认为它不正确,不分享我喜欢这样 – 克兰德尔WS 2022年12月6日10:11 -
6 @CrandellWS:在一个完美的世界里,人们会使用人工智能来生成答案,然后进行测试,验证人工智能的答案是否正确,然后发布到SO上。不幸的是,这不是目前正在发生的事情。 我们有大量用户在完全不检查的情况下将AI答案复制粘贴到Stack Overflow。 有些答案是正确的。 有些完全是胡说八道。 就在今天(过去三个小时),我看到至少有5个用户在没有任何检查的情况下进行了复制。 他们用错误的编程语言发布答案,自相矛盾的答案,等等。 – 巴西存托凭证 2022年12月6日10:12 -
8 @CrandellWS:检查这些答案所花费的时间远远超过可接受的时间。 你不能指望SO上的志愿者为人工智能生成的内容提供审查服务。 要么答案的作者在发布之前检查正确性,要么AI答案不可能。 – 巴西存托凭证 2022年12月6日10:14 -
-
-
1 @CrandellWS,这是其他人之前提到的。 你怎么知道“专家”在发布之前已经验证了它? 关于“缺乏写作欲望”,SO是一个社区。 你会发现这里总是有活跃的人。 无论是为了解决问题、赢得声誉、建立投资组合,还是仅仅为了无聊,如果你的问题构建得好、写得好,总有人会回答你的问题。 而且,为了进一步激励“大联盟”,还有一个悬赏功能。 – 阿克谢·塞格尔 2022年12月6日16:54 -
1 -
1 -
5 解决方案迟早会到来。 学术界使用方法检测AI生成的剽窃(修改输入文本而不改变上下文的模型),媒体/内容平台使用的是Deepfalse检测模型,并且有很多AI生成文本检测器,一旦模型正式可用,这些检测器可以并且将针对ChatGPT进行微调。 SO并不是唯一一个会因滥用和利用此模型而受到负面影响的平台。 目前,临时禁令是一个很好的策略,可以评估模型的影响与炒作情况。 – 阿克谢·塞格尔 2022年12月6日17:49 -
1 谁说过“编程的爱因斯坦”; 仅仅因为你知道/掌握了编程中的一个特定概念,并不意味着你就是爱因斯坦。 这是一个幼稚的比喻。 SO的全部意义在于它是一个社区管理的平台。 如果有人没有正确回答,社区会纠正它,并随着时间的推移改进/维护它。 如果你在关注ChatGPT的任何内容,人们会清楚地认识到它的准确性很差,最终只会产生“自信”的答案。 问题是对ChatGPT概念一无所知的人滥用了它 – 阿克谢·塞格尔 2022年12月31日9:48
限制 ChatGPT有时会写出听起来合理但不正确或无意义的答案。 解决这个问题具有挑战性,因为:(1)在RL培训期间,目前没有真相来源; (2) 训练模型更加谨慎会使其拒绝回答正确的问题; (3)监督训练误导了模型,因为理想的答案取决于模型知道什么,而不是人类演示者知道什么。 - ChatGPT:优化对话语言模型
即使没有人工智能,非熟练用户也可能发布低质量的答案 了解发布AI生成答案的用户的行为更为重要:为什么堆栈溢出答案对他们很重要,以及他们认为发布无用答案会带来什么好处 如果低质量答案的数量太大,无论是否来自人工智能,那么通过增加发布答案的门槛来解决这个问题 如果不是个别案例而是系统性的,那么可以使用常规的讨论论坛工具通过行为标签、IP地址等来识别有毒账户
-
8 我大体上同意。 尽管应该考虑到,这些人工智能工具减少了发布低质量但乍一看还可以的答案所需的工作量。 大多数其他低质量的答案(除了给出错误的答案外)还存在拼写和格式问题、不连贯的写作风格以及其他类似的问题,这些问题便于识别。 – 巴西存托凭证 2022年12月5日22:08 -
4 -
4 “最终,低质量的人工智能答案无法与低质量的答案区分开来。” 这显然是错误的。 许多用户已经因为发布CGPT生成的答案而被暂停使用。 这些答案遵循可识别的模式。 – 塞尔布鲁斯 2022年12月5日23:14 -
2 @塞尔布鲁斯——你是对的; 现在的情况就是这样。 然而,ChatGPT在其文本中变得更加多样化,或其他替代人工智能模型达到相同水平只是时间问题。 除非你把非英语用户的拼写错误计算在内,否则在中期内,将很难将人工智能生成的低质量答案与其他低质量答案区分开来。 – 米科·奥塔玛 2022年12月6日17:37 -
永久禁止回答的其他情况
从某种程度上来说,这意味着这个问题本身缺乏研究:如果问题很容易得到答案(问机器人),那么提问者可能会这样做。 在一些SE社区中,这很好,但对于缺乏研究的社区来说,这通常是不受欢迎的,允许发布这些答案从本质上鼓励了社区通常不想要的问题。 更重要的是,这意味着无论出于何种目的,Q/A对都只是机器人的聊天日志。 如果我能问机器人一个问题并得到答案,然后我把这个问题和答案放在SE网站上,我真正做的就是复制互联网上已经存在的信息。 虽然某些SE站点肯定有他们共享的重复信息(例如,SO有许多问题,其答案可以在文档中找到),但添加额外的重复通常没有任何价值,特别是当该信息只是一个Q/a会话的副本,可以随时与给定的GPT机器人一起使用时。 使用机器人复制聊天日志并不会真正为互联网增加任何价值。 SE最终的目的是从一小群人的头脑中获取知识,并进入一大群人的大脑中,但这只是重复了已有的知识。
-
5 -
与此相反,我想说的是,许多领域专家通常没有时间写出详细的Stack Overflow答案。 根据他们的具体知识,他们很容易确定ChatGPT答案是否合适,以及发布它是否合适。这就是ChatGPT答案的情况,例如: stats.stackexchange.com/questions/76925/… 。我知道这是正确的,因为我在那个领域工作,所以我发布了它,但我自己从来不会写出这么详细的答案。 – 汤姆·温塞勒 2023年6月15日18:07 -
5
暂时禁止将ChatGPT生成的文本用于堆栈溢出上的内容。
-
2 重新 如果提问者试图通过展示ChatGPT写的“尝试”来绕过这个问题, 如果OP发布的代码不是来自任何来源的他们自己的工作,没有归属,这是一种嘲讽,应该认真对待。 – 克里斯·尼尔森 2023年3月16日5:16 -
2 -
2
-
7 你已经读过了吗 meta.stackoverflow.com/a/422343 和 meta.stackoverflow.com/a/422096 (也许还有其他人,但除了这个答案之外,只有这些人使用“永久”这个词)? 第一个是赞成永久禁令,第二个是反对。你投票给这些答案了吗? – 威基特 2023年1月3日18:13 -
1 幽默的方式:在每一篇高质量的帖子中添加一个脚注“这个答案是由一个自然智能(NI=一个真实的人)创造的。在这个文本的创作过程中,没有人工智能被使用、伤害或困扰。”;-) – 马特 2023年3月23日10:50
-
7 -
18 -
4 -
2 @我更希望,当帖子收到超过n个有权这样做的用户的答案时,可以采取行动,防止他们达到这样的程度,即期望人们阅读几十个答案以避免重复一个答案是荒谬的。 我不会坐在这里责怪像这样的用户在有80个答案的情况下回答问题。 这不是他们的错 – 凯文·B 2023年2月10日21:38 -
1 @KevinB FWIW提出的先决条件阅读应该在任何荒谬的事情发生之前很久就开始——少于10个答案(理想情况下是5个或6个)。 这是因为它应该帮助像我这样在发布之前阅读所有答案的人。 主要目的是让事情对我来说更方便,你可以考虑把重复不考虑的事情当作一种有益的副作用来处理 – 昆虫 2023年2月10日22:42
-
2 -
2 -
目前我问的问题很短,只有0/8,所以如果是 最有可能 嗯,那不太好。 它给出的答案要么是“完全错误的代码”,要么是“一个虚构的乐趣/参数,它解决了你的问题,但并不存在”,要么就是“你错过了问题的全部要点”。 我认为CGPT只能回答最琐碎的问题,即使问题很好地表述出来。 当然,这些琐碎的问题很可能是重复的。 – 埃里克A 2022年12月8日12:36 -
-
7 你的答案听起来像是可以回答清楚、写得好的问题,这些问题可以由人类回答。 我的观点是:只有当答案也是微不足道的时候,这才是正确的,因为cGPT无法解决简单明了的问题,而人类可以很好地回答这些问题。 它甚至无法解释它们,并将它们转换为它有答案的东西。 – 埃里克A 2022年12月8日13:01 -
1 -
7 -
1 -
是否有一些数据来衡量提问率? 我的意思是,在chatGPT推出后,SO是否注意到提问率下降了? 有没有一些数字比较了聊天前和聊天后GPT发布对SO每分钟提问率的影响? – 乔桑 2023年1月25日5:32 -
快速结束所有可结束的问题。
这个答案得到了人工智能的帮助。
-
6 " 快速结束所有重复和非主题问题。 “不起作用,对不起。” FGTIW的回答者以前很快,现在他们会更快。 “通常,一个问题在敲打时会得到一个或多个答案。在2-3分钟的时间内。我坐在最新的问题上,并试图尽快正常地采取行动,但即使这样,找到一个被愚弄的问题可能也要比写一个简单的答案花费更长的时间。我在不到5分钟的时间里完成的一个问题,在我敲打我的时候已经得到了五个答案 现在写答案更简单了。 – VLAZ公司 2022年12月7日6:30 -
11 -
" 这样提问者仍然可以得到他们需要的答案 “为什么还需要这样做?这不是堆栈溢出的目的,还有其他网站也需要这样做。但是” 如果页面在被问及后n天内关闭,我们应该删除任何赢得的代表 “听起来是个好主意! – 沃瓦诺 2022年12月7日7:52 -
-
2 @米克马库萨,不,我在问:为什么根据网站规则应该关闭的问题(因为它们是非主题的)要得到答案才能取悦(无知的)提问者? 显然,好的主题问题(不应该封闭)值得回答。 – 沃瓦诺 2022年12月7日8:35 -
1 -
4 @洛姆 meta.stackexchange.com/questions/18014/… '. 而且 反对FGITW和Dupe忽视的斗争 和 消除FGITW回答众所周知的欺骗的动机 – 米克马库萨 2022年12月7日10:09 -
4 -
-
@米克马库萨,我同意我的评论并不完全适用于以重复形式结束的问题(虽然我个人喜欢把所有答案放在一个地方,而不是在许多重复问题上乱七八糟地乱七八块,但YMMV)。 然而,它也适用于因其他原因而关闭的问题。 您在个人资料中声明:“ 这就是为什么。。。 我要求其他人不要发布不完整、重复或其他接近的问题的答案。 " – 沃瓦诺 2022年12月7日10:17 -
2 我认为,在积极的标签管理者的帮助下,收尾会更有效率。 他们目前倾向于放弃这一点,因为该系统将不熟悉标签的适度性推向了他们的喉咙。 与其用“外部”的东西来打扰他们,他们应该有机会在自己觉得舒服的地方缓和一下 tag-filtered分诊 和接近投票权 通过标签徽章增强 – 蚊虫 2022年12月7日11:40 -
1 -
@AkshaySehgal许多发布了大量CGPT答案的用户都是新用户。 他们有一个代表。或者已经开始在一个代表处发布答案。实际上并没有太多可以“惩罚”他们的东西。 对于那些已经开始发布生成答案的高代表性用户来说,这可能会奏效,但我反对这样做。 简单的临时禁令(目前正在发布)应该能传递这一信息。 没有真正的必要做一个永久的标记。 – VLAZ公司 2022年12月7日15:04 -
5 -
三
禁令是暂时的。
人工回复不可信。
我们无法判断回复是否来自AI。
-
-
我非常喜欢你的回复。 如果你不介意我说的话,使用ChatGPT来检测ChatGPT是一个矛盾。。 你写道:“我们不应该邀请人工智能回复,直到它们的质量等于我们的人类贡献者”。 什么是好质量? ChatGPT对StackOverflow上的问题的回答与人工生成的答案一样好。 人类给出了许多错误的答案。 我坚信ChatGPT在不久的将来,也许在十年结束之前,将超越StackOverflow排名最高的成员。 – 卡特里尔 2023年6月5日16:15
-
7 -
1 -
1 @你的意见听起来很摩尼教。 当不用于垃圾邮件时,人工智能有着奇妙的应用程序,已经改变了我们当前的世界。 无论如何,憎恨工具是徒劳的,就像憎恨刀子一样。 它可以用于好的方面,也可以用于坏的方面。 我只是认为,即使从人工智能研究人员和用户的角度来看,接受人工智能生成的答案并没有中长期的好处,只有(灾难性的)负面影响。 因此,无论从SE用户的视角来看,还是从AI用户/研究人员来看,禁止是少数几个合理的解决方案之一。 – 健谈的 2023年1月26日20:36 -
@Cerbrus没有一个过滤器是100%有效的,使用稍微修改的模型或后处理很容易解决这些过滤器,人工智能用户(甚至研究人员)已经在社交网络上发布了大量类似的帖子。 而且我从来没有写过SO/SE有责任提供可用的培训数据,我只是提供了一个同样适用于同一解决方案的替代观点。 “我们对他们”的心态似乎激化了,令人难过。 尽管我的观点同意这项禁令,但它只是因为接受了另一方的观点而被抛弃了。 – 能说会道的 2023年1月26日20:42 -
1 -
1 -
-
1 @Cerbrus AI不是另一方,而是一种技术,就像SO/SE的(基于AI的)推荐系统一样。除非我们认为SO是一个闭环系统,因为它是一个可公开访问的网站,我觉得这是不合理的,否则我认为忽视任何非以SO为中心的观点都是非常短视的。 我提供的观点更加系统化,考虑到其他因素和更广泛的技术前景。 我不认为它应该是主要的观点,我明确地写道,它是一个替代的观点,如果你愿意,它是“思考的食粮”。 – 健谈的 2023年1月28日13:14 -
-
47 -
是的,我想你是对的,询问具体细节可能比回答整个问题更有价值。 – 用户492203 2022年12月5日12:23 -
2 -
2 你不一定能确定答案(好吧,你可以试着问同样的问题,看看你是否得到了类似的答案),但如果答案明显是低努力/错误的,那么应该删除它。 如果答案没有问题,那么chatgpt是否参与其中就不重要了。 – 用户492203 2022年12月5日14:05 -
-
22 如果用户在发布前花时间浏览自动生成的答案并验证其正确性,请将其来源记入贷方(即使对于自动生成的回答来说这实际上是可能的),并避免剽窃等,并以合理的速度发布这些答案(而不是让网站充斥糟糕的答案), 并根据评论中的反馈对其进行改进(而不是只是将其倾倒在网站上然后放弃)——然后我想很难判断它们是自动生成的。 但在这一点上,它与完全由人类写的答案几乎没有区别。 – V2喷砂 2022年12月5日15:47 -
20 -
7 -
三 -
三 -
三 -
2 我喜欢VisualStudio/code中现有的脚手架工具并没有受到攻击,但使用GPT是如此。这是一场枪杀人的争论,而不是人们(用枪)杀人的争论。 整个帖子有很多不成熟之处。 此外,这里提出的论点就像GPT正在吐出1000行没有人理解的方法。 如果你在SO上的任何地方复制粘贴一个答案,而没有对其进行审查,那么这就是问题的根源,而不是它是否来自GPT、VS扩展或MSDN论坛。 – 松饼人 2023年1月1日6:58 -
2 @iBug(智能错误)- “……验证机器生成的答案比自己编写答案需要更多的时间和精力……” 如果你的母语是英语,这可能是真的。 然而,对于非第一语言的英语使用者来说,编写自己的答案可能比验证和调整人工智能生成的答案要耗时得多。 2023年1月17日4:38 -
1 -
1
美国有三类业余无线电执照:技术员执照、普通执照和附加执照。 每类许可都有自己的一组特权和要求。
技师级执照是业余无线电操作员的入门级执照。 它允许持牌人在30兆赫以上的所有业余无线电频率上操作,包括非常流行的2米和70厘米波段。 技术许可证持有者不允许使用HF(高频)频段,这是用于远程通信的频段。
通用类许可证是中级许可证。 它允许持牌人操作所有业余无线电频率,包括HF波段。 普通级许可证持有人还可以使用更高功率的变送器,并操作技术员许可证持有人无法使用的某些类型的设备。
特级执照是业余无线电执照的最高级别。 它允许持牌人在所有业余无线电频率上工作,包括高频波段,并使用法律允许的最高功率水平。 特级许可证持有人还可以使用更广泛的设备,并以特定类型的专用模式操作,例如数字模式和卫星通信。
要获得业余无线电执照,个人必须通过由志愿考官团队管理的笔试。 考试内容包括业余电台的运行规则和规定,以及电子学和无线电理论的基本概念。 考试的难度随着每一类驾照的增加而增加,而额外的驾照是最难获得的。
技术许可证持有者可以使用某些高频波段的某些小部分,但有限制。 一般许可证持有人可以使用大部分 乐队 ,但在许多频带内都有Extra-only频率。 在甚高频和更高频段,所有持牌人都享有完全相同的特权。 普通许可证持有者能够使用比技术人员更高的功率在HF波段上是正确的,但这并不是普遍正确的。 额外被许可方具有与普通被许可方相同的权限。 实际上,Extra可以使用的任何收发器也可以由普通许可证持有者使用。 甚至技术人员也可以使用数字模式和卫星。 所有被许可方都可以使用所有模式; 它们只限于某些频率。
-
2 @Rubén我之前发布了一个反对禁令的答案,并建议了一种允许人工智能回答的方法,但在更多地使用ChatGPT之后,我认为这在此时不是一个好主意。 我不想删除我的旧答案,因为我仍然认为如果/当它变得足够好,可以用来回答SO问题时,这将是处理AI的好方法。 – 某人 2022年12月11日17:38 -
16 -
44 -
-
10 请记住,这个“问题”不是“要求 无论什么 “。在发布禁止使用chatGPT的帮助文章之前,可以提供有关如何处理这种情况的反馈,但我认为没有任何理由用“想法”或“意见”来争论这个问题 – 威基特 2022年12月11日17:43 -
1 -
每个“答案”都应该与问题直接相关,如果你想批评其他答案,通常应该直接对相应的答案发表评论。 如果一条评论没有提供足够的空间,那么可以发布另一个答案,但它应该包含一个指向被批评帖子的链接,但前提是这与问题直接相关。。。 答案不应偏离问题主题。 – 威基特 2022年12月11日17:48 -
2 -
-
-
-
ChatGPT的答案大多数时候都很笼统。 如果你对某个话题一无所知,但还不足以了解更多关于某个具体问题的知识,更不用说解决问题了,那可能会很好。 它绝对不是一个解决问题的工具,尽管它是一种搜索引擎,可以让你对主题有一些大致的了解。 这就是ChatGPT在我看来的现状。 – 无数据转储无贡献 2022年12月11日22:33 -
这是一个关于答案是如何被灌输的谬论的例证。 Extra class手册包含了其他手册中没有的关于卫星的章节,它仅作为该许可证考试中深入讨论的主题出现,但它与该许可证允许的内容无关,不包括其他许可证。 类似地,关于Oracle的问题可能最终会变成ISO SQL,反之亦然 K7COI公司 – 榴莲 2022年12月13日18:42 -
-
-
5 -
1 -
1 如果你点击横幅,你会发现它与人类用户发布LLM生成的答案没有多大关系。 时机可能不太好,但他们提出的想法确实有一些优点。 – 用户8681 2023年8月4日13:31 -
-
-