跳到主要内容
10.1145/3613904.3642700高级会议文章/章节视图全文出版物页面芝加哥会议记录会议集合
研究论文
开放式访问

知识工人如何认为生成性人工智能将(不会)改变他们的行业

出版:2024年5月11日 出版历史
  • 获取引文提醒
  • 摘要

    生成性人工智能有望在多个知识产业中产生变革效应。为了更好地理解知识工作者对生成性人工智能的期望如何影响他们未来的行业,我们为七个不同行业举办了参与式研究研讨会,共有54名参与者来自美国三个城市。我们描述了参与者对生成性人工智能影响的期望,包括一个贯穿群体话语的主导叙事:参与者在很大程度上设想生成性人工智是一种工具,可以在人类的审查下完成卑微的工作。参与者通常不会预测到目前常见媒体和学术叙事中预测的知识产业的颠覆性变化。然而,参与者确实认为,生成性人工智能可能会放大目前塑造其行业的四种社会力量:去杀戮、非人性化、断开连接和虚假信息。我们描述了这些力量,然后提供了关于特定知识产业态度的更多细节。最后,我们讨论了HCI社区的影响和研究挑战。

    1引言

    2022年11月30日,OpenAI发布了ChatGPT的演示,这是一个由大型语言模型(LLM)支持的聊天机器人1聊天机器人令人印象深刻的对话和提供信息的能力立即引起了国际关注,在短短几天内吸引了100多万用户[118]. 虽然LLM已经积极开发了几年,并建立在已经研究和使用了几十年的技术之上,但ChatGPT的发布被宣布为一个颠覆性的时刻,在这个时刻,普通民众和许多技术专家意识到AI能力的重大飞跃。
    自那时以来,ChatGPT等生成性人工智能系统的迅速发展[138],巴德[2],达尔·E[137],图像[146]和Midtrivel[122]伴随着引人注目的故事。其中包括对其执行复杂任务能力增强的讨论,以及对生成性人工智能将如何破坏知识产业的预测(法律、新闻、软件开发等行业,工人将通过专业培训获得的知识应用于非常规问题解决以及开发产品和服务[92]). 这些叙述将生成性人工智能想象为一种资源,它可以自动化人类目前所做的大部分知识工作,从而对劳动力产生不利影响,例如消除多个行业的大量工作[173]. 然而,虽然最初的证据表明,当生成性人工智能用于特定任务时,生产力会提高[34,181],其未来影响仍有很多未知之处。
    这一独特的时刻为理解生成性人工智能提供了一个及时的机会,可以深入考虑对其未来使用的期望。为了更好地理解人们对生成性人工智能未来可能影响知识工作的预期,我们为七个不同的知识行业举办了三小时的参与式研究研讨会,共有54名参与者,分布在美国三个城市。我们的贡献如下:
    我们对广告、商业传播、教育、新闻、法律、心理健康和软件开发等七个专业领域的知识工作者如何影响其未来领域进行了一项新颖的定性研究。特别是,我们不仅探讨了知识工作者对特定任务或工作如何自动化或以其他方式改变的看法,而且还探讨了生成性人工智能如何以及是否会更广泛地改变其行业的工作性质和结构。
    我们描述了多个知识行业的参与者所设想的关于生成性人工智能的主导叙事,将生成性人工智能作为在人类审查下进行卑微工作的工具,我们还强调了每个行业的独特视角。
    我们描述了参与者在其行业中所经历的特定社会力量如何与生成性人工智能的发展并行,从而创造出一种独特的环境融合,当其与围绕其部署和使用的社会趋势相交叉时,这些环境融合了参与者对生成性人工智影响的期望。这些力量包括去杀戮、去人性化、脱节和虚假信息。
    基于参与者的见解,我们确定了在生成性人工智能和知识工作的交叉点上的五个HCI研究挑战。
    在本文的其余部分,我们回顾了相关背景,描述了我们的方法,介绍了我们的发现,讨论了HCI社区的影响和研究挑战,并得出结论。

    2背景

    我们的研究考察了知识工作者对生成性人工智能如何影响其领域的看法。在本节中,我们提供了生成性人工智能技术和知识工作的背景,以及它们交叉点的研究,并概述了生成性AI叙事以及公众对AI的认知。

    2.1生成型人工智能模型

    生成性人工智能是一种机器学习系统,它根据输入生成真实可信的类人内容(例如文本、图像、代码、音频)。这些系统是在网络规模的数据库上训练的,不同于传统的机器学习(ML)系统,这些系统被设计成专家系统,标志着ML的目的从“解决问题转向发现问题”[126,第1页]。生成性人工智能的概念可以追溯到20世纪50年代,当时研究人员开始探索使用计算机生成新内容的可能性[104,147]. 然而,直到20世纪90年代和2000年代,人们才进一步投资于神经网络,即处理和识别大型数据集模式的互联节点[127]机器学习领域获得了发展势头。“深度学习革命”的开端[127,p.xxvii]发生在2014年,当时Alex Krizhevsky和同事[105]使用深度神经网络赢得了ImageNet图像分类挑战。从那时起,研究人员开发了新型的神经网络,可以生成新的内容,包括生成对抗网络[75],递归神经网络(RNN)[123]、可变自动编码器(VAE)[103]和扩散生成模型[166]-标志着为生成性人工智能的发展奠定基础的技术进步。
    2017年,随着现代变压器架构的发展,下一个重要里程碑发生了[175]允许并行化其中计算被划分为同时运行的较小任务。Transformer体系结构支持生成详细而真实的内容,并保持了一系列生成任务(包括文本)的最新技术[110,144],图像[55,112]、和代码生成[136]; 并支持在大量数据集(如LaMDA)上训练的“基础模型”[171]、GPT[33]和DALL·E[143]. 生成性人工智能领域正在迅速发展;然而,大型语言模型(例如ChatGPT[138],巴德[2])和文字到图像模式(例如Midtrivel[122],达尔·E 2[137],稳定扩散[])是当今流行的模式。大型语言模型处理并生成可用于各种应用程序的文本,包括问答交互、语言翻译、聊天机器人、代码和文本生成、摘要和语言分析。文本到图像(T2I)系统允许用户从自由形式和开放式文本提示生成照片级真实感图像。虽然模式不同,但生成性人工智能系统有三个关键特征:(1)适用于通用而非专用用例;(2) 制作通常与人类内容无法区分的原创内容;(3)直观易用的界面[32].

    2.2知识工作

    知识工作2涉及专业劳动,其主要资本是知识[70]; 知识型员工将通过专业培训获得的理论和分析知识应用于非常规问题解决,并开发产品和服务[92第878页]。知识工作是后工业化社会的特征[36]资本主义生产转向技术知识[20,141]. 通过这种方式,知识工作反映了社会经济和政治权力的重新集中,成为将信息资源转化为可销售商品和服务的机构[124]. 因此,知识工作将工人重新定义为“资本资产”,并将生产力的责任定位在个体工人身上,这些工人有自主权决定如何在特定的范围内处理特定的任务[59第87页]。知识工作者最显著的特征是拥有“知识”,而不一定完成教育计划[57],尽管某些角色或领域可能需要许可证或证书(例如律师、医学)。因此,知识工作包括使用信息、数据或想法作为“原材料”进行“规划、分析、解释、开发和创造产品和服务”的专业[83第511页]。

    2.3生成性人工智能与知识工作的未来

    生成性人工智能能够让用户通过通用用例轻松生成新内容,这就引发了对知识劳动力的潜在宏观经济影响的问题[62]. 与以前影响体力劳动(如制造业或运输业)的许多创新不同,生成性人工智能直接涉及专业化知识工作[32]. 关于这个主题的讨论形成了一个革命性的 叙述的-我们将在第节中进一步讨论叙事4.1-这表明,生成性人工智能将对知识产业产生重大影响。例如,Briggs等人[32]确定13种易受自动化影响的知识工作活动(例如,收集、组织、分析和解释信息),估计大约三分之二的美国职业可能会中断工人的工作方式。虽然考虑到生成性人工智能领域的快速变化,需要进行更多的研究,但新生的工作表明,创造性工作等领域可能会出现破坏[50],客户服务[72],教育[64]、医疗保健[72,174]、新闻业[95]、法律服务[64],市场营销[40]、管理咨询[53]和软件工程[182]. 新手可能会不成比例地从特定工作任务的效率提高中受益[132]. 例如,在客户服务角色中引入生成性AI对话助理可以提高员工的生产力,而新手客户服务代理的绩效则会有不成比例的提高[34]. 经济学家预计,经历显著自动化的职业将被新的就业机会所抵消[32]例如,审查和管理生成性人工智能系统创建的内容的新角色[50]. 然而,需要对职业变更管理进行适当投资[40]包括理解工人观点,这是直接指导我们研究的目标。

    2.3.1人工智能对工人任务的生成性影响。

    HCI学者开始研究生成人工智能对不同类型工作任务的影响。研究的主要线索集中在不同的写作任务上[73,149,160,164,188,190],包括营销口号[42]和讲故事[150]. 生成性人工智能系统可以显著影响用户所写的主题及其框架[91]. 例如,当人们使用生成性人工智能写作助手(例如ChatGPT)时,他们会更频繁地撰写系统建议的主题[140]. 生成性人工智能系统提出的写作建议也会影响沟通的语气和情绪[10,22],包括长度和文本的通用性[11]. 然而,生成性人工智能系统的用户体验不仅仅是被动的,还涉及到协商机器中的写作方法的认知工作[49,164]. 由于创造性工作不一定以结果为中心,而是以过程为中心,因此我们在理解生成性人工智能在明确商品化劳动环境中的影响方面仍然存在差距。
    HCI学术的一个新兴线索集中于生成性人工智能对专业化环境中工人的潜在影响,研究生成性人工智的潜在专业影响,包括它如何提高知识工人的任务效率[7,193]. 一些HCI研究考察了对特定专业部门的影响,尤其是创意部门[51,79,89]和教育[5,99,116]域。虽然研究表明,总体而言,创意专业人士还不担心与人工智能相关的工作岗位产生位移,但他们确实提出了与工作质量恶化、创意过程侵蚀以及培训数据版权问题相关的担忧[89]. 在教育领域,研究集中在生成性人工智能如何在准备教材方面支持课堂教学[116,154]和学生学习成果[99]. 然而,对于生成性人工智能对专业行业的影响,尤其是创意环境以外的行业,HCI研究仍然匮乏。

    2.4感性化的生成人工智能叙事

    生成性人工智能系统的快速发展伴随着敏感的 叙述的关于它将如何扰乱社会和工作。基于之前的人工智能叙事,它包含了戏剧性甚至夸张的说法(参见评论:[18,39])关于AI感知等主题(例如[151])和劳动力转移(例如[45]). 人工智能领域的领军人物以唤起共鸣的方式(例如[120])例如,将人工智能比作“新电力”,以强调它将扰乱大多数或所有行业的预期[130]. 媒体、未来主义者和其他人也探索了生成性人工智能的潜力,例如思考人工智能是否可以“取代人类”[114]. 关于机器智能的夸大说法设想了一个被生成性人工智能取代的全球底层人类工人阶级[93]一个标题是:“ChatGPT能写我的书并喂我的孩子吗?”[84]. 虽然这样的叙述可能会利用人工智能开发人员的说法来预测知识工作的最坏情况(例如[17,121]),他们经常以误导性的方式纳入证据(见评论:[117,135]). 此外,他们很少涉及在其领域具有专业知识的知识工作者的观点。
    虽然一些人认为,生成性人工智能正处于膨胀期望的顶峰[52,179]耸人听闻的人工智能叙事可以缩小和结束公众辩论[98]. 作为对炒作周期的回应[94],有人呼吁更多有节制的叙述,为公众创造空间,以便有意义地思考和解决生成性人工智能的劳动问题[18,162]). 这包括考虑生成性人工智能可能与不同类型的专业工作交互的具体方式[96]以及更广泛的知识产业动态。

    2.5公众对人工智能的认知

    由于公众对生成性人工智能的认识是最近才开始的,因此很少有人对公众的认知进行研究。然而,已经对公众对人工智能的认知进行了大量的研究,其中大部分是基于调查的[8,15,24,38,60,69,97,113,128,131,142,158,170,189,192]. 受访者通常预计人工智能将对未来产生重大影响,并经常预计可能产生有利影响,新兴市场和/或亚洲市场的印象最为良好,而美国等西方国家的印象更为负面(尤其是最近)[8,60,69,113,128,131,170,189]. 同时,人工智能既不被解释为完全有利也不完全不利,公众的反应往往表明矛盾的情绪[24,101,102,125]. 失业(尤其是与机器人和制造业相关的失业)、社会隔离加剧、隐私和其他社会话题已成为关注的重点[9,60,100,101,102,142,165]. 事实上,皮尤最近的一项调查发现,在37%的美国受访者中,他们表示对日常生活中人工智能的增加“更担心而不是更兴奋”,大约五分之一的人明确提到失业是他们担心的主要原因[142].

    3方法

    为了探索知识产业中生成性人工智能应用的预期影响,我们在美国三个城市的七个知识产业的54名参与者中举办了参与式研究研讨会。虽然我们的机构没有IRB,但我们坚持同样严格的标准。我们的研究目标是进一步了解以下内容:
    知识工作者预计生成性人工智能将如何影响他们的行业?
    知识工作者如何看待生成性人工智能与他们预期的行业其他变化之间的关系?

    3.1参与者

    我们通过Gemic从七个行业(共54个行业)各招募了7-8名研讨会参与者,他们与合作伙伴一起在每个城市安排专业招聘公司。我们的参与者在活动和讨论中发挥了共同研究的作用;我们在整个论文中将他们称为“参与者”,并不是说他们在研究中扮演着被动的角色,而是为了避免混淆正式的研究人员贡献和研讨会合作研究人员贡献。根据经济分析和行业观点,我们选择了广泛的行业广告、商业通信、教育、新闻、法律、心理健康护理和软件开发,以在可能受到生成性人工智能实质性影响的各个领域引发不同的观点[32,40,50,64,72,182]. 每个研讨会大约有一半的参与者担任了核心角色,我们预计他们将能够广泛地谈论各个行业,例如教育教师、新闻记者和法律律师。另一半则在每个专业中扮演更专业的角色,以引入更多元化的观点。见附录A表5筛查的目的还在于在每个研讨会中招募性别均衡的参与者和一半非白人参与者。按照行业标准,所有参与者都得到了相同的补偿。有关参与者信息的摘要,请参阅表1.
    表1:
      参与者 
    行业位置n个年龄范围性别工业时间
    广告纽约市826 – 38女性:42-5岁:2
        男性:4人6-10岁:1
         10年以上:5年
    商业哥伦布824 – 54女性:42-5岁:3岁
    通信   男性:4人6-10岁:1
         10岁以上:4岁
    教育类奥克兰729 – 51女性:62-5年:2
        男性:16-10岁:1
         10岁以上:4岁
    新闻纽约市825 – 42女性:52-5岁:3岁
        男性:36-10岁:2
         10年以上:3年
    法学哥伦布830 – 64女性:42-5岁:3岁
        男性:4人6-10岁:2
         10年以上:3年
    精神卫生奥克兰832 – 50女性:52-5岁:2
        男性:36-10岁:1
         10年以上:5年
    软件纽约市725 – 36女性:32-5岁:3岁
    开发   男性:4人6-10岁:1
         10年以上:3年
    表1:每个行业组的位置和参与者构成的详细信息。参与者从一系列选项中自我报告性别,包括自我描述选项。招聘对象仅限于从事本行业两年或两年以上的参与者。

    3.2车间

    参与式研讨会在HCI方面有着悠久的方法论历史,经常用于参与式设计活动[81,109,152,172],生活实验室[54],黑客空间[66]等等。作为研究场所和方法的参与式研讨会植根于参与式行动研究[44,82]. 受参与式行动研究的启发,我们利用参与式研讨会与代表知识产业的特定实践社区接触。我们遵循这种方法,因为它是对HCI中关键理论研究传统应用的实际补充(例如,女性主义[16,148],酷儿[111,167],交叉[106,145,155,156,187]和关键的区域理论信息[134,157]工作),因为它:(1)中心生活着那些受技术影响的人的经历;(2) 关注理解我们案例中的社会变革,理解知识工作中生成性人工智能采用的阶段,探索对社会技术和组织干预可能采取的形式的参与性理解;以及(3)制定研究实践,努力缓解研究中的不对称权力关系。因此,我们组织了研讨会,以纳入一系列活动,包括调查[19,25,30,71,76]和挑衅,以便根据参与者的生活经历和观点,合作设想和反思预期影响,并参与合作对话和活动,以告知和塑造未来关于使用生成性人工智能的议程和政策。
    2023年7月,我们为每个行业举办了一次研讨会俄亥俄州哥伦布市;纽约市,纽约;和加利福尼亚州奥克兰市(各城市的工业见表1). 这些城市被选为各自行业的活动中心,并代表了一个社会地理范围。每个研讨会都是在第三方设施亲自举办的,为期三个小时。来自谷歌和Gemic的三到四名研究人员主持了每个研讨会,以促进和分享有关生成性人工智能的信息。参与者和研究人员围坐在一张大桌子旁,促进小组讨论。每个研讨会都有两名摄像师参加,参与者知道有几名研究人员和工作人员在观察室或远程观看。参与者意识到谷歌参与了这项研究。我们遵循了新冠肺炎预防措施(例如,所有参与者和主持人在登记时都进行了测试),整个研讨会都有茶点供应。作为研讨会开始前的一项简短的前期工作活动,我们要求参与者绘制其行业地图,为讨论潜在变化建立参考(附录C:图1).
    表2:
    活动时间
      
     15分钟
    生成性人工智能教学与问答40分钟
    用餐休息时间20分钟
    更改卡片活动45分钟
    休息10分钟
    政策活动和投票40分钟
    个人影响和总结10分钟
    表2:参与性研究研讨会议程。时间是近似值。
    研讨会如表所示2。我们首先介绍了对研讨会的介绍和期望,然后邀请与会者分享有关生成性人工智能的以往经验或印象。然后我们做了一个演示,让与会者对生成性人工智有一个共同的工作理解,从而为后续活动奠定基础,为提问和讨论留出充足的时间。该演示文稿简要概述了生成性人工智能模型如何学习和生成内容,它们与其他人工智能模型的区别,以及生成性人工智的关键特征和风险(附录B)。
    午休后,我们就潜在的行业变化进行了讨论。我们首先向参与者介绍了一种探测:一种我们称之为a的大型物理卡兑换卡这鼓励参与者反思未来一到两年内行业可能发生的重要变化;变化无需与生成人工智能相关(附录C:图2). 改变卡片使我们能够:(1)通过对他们期望的改变的开放式和封闭式问题,为个体参与者构建一个关于行业未来的设想过程;(2) 通过开放式提示,引发参与者对这些变化的感受;(3)捕捉参与者可以在合作话语中重新审视和构建的想法。每个参与者花大约10分钟填写他们的个人兑换卡。然后,我们促成了一次开放式小组讨论,参与者分享了一张或多张更改卡,并对彼此的想法作出了回应。这些基于卡片的讨论有助于我们随后与参与者一起分析更多的可能性,我们将在调查结果中进行报告。
    在另一次短暂休息之后,与会者讨论并勾勒出了指导其行业中使用生成性人工智能的政策的大致轮廓(附录C:图)在此期间,我们进一步探讨了他们的期望和态度。参与者再次有大约10分钟的时间单独工作,然后轮流在方便的讨论中介绍他们的政策。在讨论之后,我们进行了一次练习,参与者对他们认为对行业最有帮助和最有害的生成性人工智能的哪些方面进行了投票。在对此次投票活动进行了简短讨论后,在研讨会的最后几分钟,与会者被鼓励在工作之外谈论生成性人工智能的潜在影响。在整个研讨会期间,我们注意鼓励参与者和主持人之间的协作解释、问题解决和讨论,并为所有参与者提供分享想法和观点的空间。

    3.3分析

    所有的会议都是通过自动语音到文本服务逐字记录和转录的,然后我们根据原始记录手动更正了转录本。收集并归档了所有工件(54个行业地图、140张变更卡和54个政策)。我们归纳分析了更正的转录本和伪影的数据。利用自反主题分析方法[27,28],四位作者以配对和独立审查的多种配置审查了转录本,其中一位作者与相应的工件进行了比较。这四位作者参与了深度和长期的数据沉浸和讨论,独立的开放编码,然后写备忘录以生成主题[23]以及多轮合作讨论,以反射性地比较他们对数据的解释并确定主题。

    3.4限制

    在解释这部作品时,我们的研究方法有几个局限性。首先,它伴随着定性方法和小组访谈的标准问题。我们只在美国三个城市进行了这项研究,每个行业只有一个群体,我们的小样本在统计上无法代表我们探索的专业领域的角色或人口统计学特征。我们的调查结果应被视为对参与者对其行业观点的深入探索,但不应被视为由其行业整体所概括。第二,我们选择的教学内容和活动虽然与我们的研究目标相适应,但可能会影响参与者,尽管我们试图通过参与者引导的讨论来最小化任何影响。最后,虽然我们在会议期间确认了我们对参与者评论的理解,并且一位或多位作者在所代表的大多数行业中都有经验,但我们的解释可能缺乏上下文或细微差别,而这些对于相同专业类别的成员来说更容易理解。

    4调查结果

    在本节中,我们将介绍我们的发现。我们首先描述参与者对生成性人工智能影响的期望,包括跨群体出现的主导叙事。然后,我们转向四种当前的社会力量,这四种力量塑造了参与者对生成性人工智能如何影响其行业的看法:去杀戮、非人性化、断开连接和虚假信息。最后,我们描述了特定知识产业中的一些独特观点。

    4.1生成人工智能的预期影响

    在本小节中,我们概述了参与者对生成性人工智能如何影响其行业的看法。4我们首先简要总结参与者关于生成性人工智能的主要叙述,我们称之为省力工具 叙述的(见表). 为了便于比较,我们还简要总结了革命性的 叙述的敏感的 叙述的在章节中介绍2.32.4分别是。我们引入这些叙述,将参与者的数据与现存的有意义话语进行对比,并与反身主位分析相一致[29第211页]。在本小节的其余部分中,我们描述了省力工具 叙述的更加详细。
    表3:
    节省工作量工具 叙述的-参与者普遍认为,将生成性人工智能作为一种工具来执行繁琐的工作是现实的,也是可取的,但要经过人类的审查。此外,他们认为可以利用和扩大其行业中现有的护栏来进行此类审查。他们预计某些角色将受到影响,但对于大多数行业来说,他们预计不会发生实质性的转变或大量工作岗位的消失。在大多数情况下,参与者预计变化不会像革命性的 叙述的敏感的 叙述的.
    革命性的 叙述的-通常在技术报告中共享5或智库、咨询公司或学术团体的同行评议论文,并在一些严格的新闻报道中得到回应,这种叙述采用分析方法来论证生成性人工智能将对行业、工作和任务产生广泛而实质性的影响。这方面的工作通常包括预测(例如,生成性人工智能可以自动化的任务的%,受影响的工作的#),概述了一系列可能性,但通常包括此类估计的极高上限。虽然这种叙述并不像敏感的 叙述的它通常预测变革。
    敏感的 叙述的-作为社交媒体和许多新闻文章中的主流话语,这种叙事对于未来生成性人工智能将如何改变/取代人类劳动做出了戏剧性甚至夸张的断言。它经常将生成性人工智能与以前的历史性创新甚至“大爆炸”(例如[153]). 在某些情况下,这种叙述来源于AI的主要人物[117]可以说,这些人正在为非专业人士构建具有启发性的信息。然而,它经常歪曲专家意见或纳入来自诸如革命性的 叙述的以误导的方式强调焦虑导致的最坏情况[135].
    表3:关于生成性人工智能的三种不同叙述的概述。省力工具叙述来自于我们对研究数据的分析。我们综合了现存文献中的转换叙事和感性叙事,如第节所述2.32.4总的来说,参与者没有接受更广泛的破坏性叙述省力工具 叙述的与当前的预期相比,对预期劳动力影响的看法是相当有限的革命性的 叙述的敏感的 叙述的.
     

    4.1.1生成性人工智能可以自动完成繁琐的工作:“我们只需要大量生产。”。

    虽然讨论了各种可能的用例,但我们参与者的经验、想象力和偏好集中在将生成人工智能用于日常任务上。他们将这些任务描述为他们认为很容易自动化的常规和/或公式化任务,或者他们实际上在ChatGPT等应用程序中尝试过的任务,例如起草社交媒体内容、解决问题、引导呼吸训练课程或创建课程计划。
    “对于那些我觉得枯燥乏味的任务,或者从更大的画面中拿走,或者从我的盘子里拿走,那些我并不真正关心的待办事项,但是我们需要不断地进行,ChatGPT。”–A16
    “我用它来帮助写发行说明……我会列出一系列非常无聊的更新或功能,这些功能并不那么性感,然后他们会说,‘让它听起来很有趣。’这实际上非常耗时。而生成性人工智能对此非常有帮助。”–S5级
    “当你必须对非常机器人化的轮廓进行处理时,这看起来确实很有用。”–J7
    “在律师事务所里,你制作的一些工作产品需要大量的思考和决策,需要一些创造力才能真正起草出以你的方式组合起来的独特的东西。我每天做的其他任务要公式化得多……如果你比较[第一个]说《公民凯恩》(Citizen Kane),第二集更像是SVU的一集,你可以在10分钟内完成。” –L1级
    参与者通常热衷于将这些任务交给生成性人工智能,因为它们很枯燥,而且他们觉得节省下来的时间可以让他们专注于工作中更有意义的人性化方面。例如,心理健康专业人士热切建议生成性人工智能取代死记硬背的工作,比如记笔记或接受病人,从而提高效率,腾出更多时间专注于与客户的人际关系工作。
    “我希望人工智能能以任何方式帮助我们做到不记。这是我们工作中我最讨厌的部分。它太费力了……它占用了我们太多的时间,如果有任何东西可以支持我们这样做,那将是令人惊讶的。我不知道它会如何做到这一点,但如果它能做到,我会高兴地哭。”–M1
    此外,一些人非常重视扩展和处理大量工作的能力,B6号机组最近,他在三个月内发送了数十万封电子邮件,并设想生成性人工智能可以提高一致性和速度。

    4.1.2生成性人工智能是一个有用的工具,但需要人的审查:“也许是一个助手,但肯定无法控制。”。

    与他们在繁忙工作中使用生成性人工智能的倾向一致,参与者主要倾向于将生成性人工智作为人类工作者的工具。例如,一些人规定,生成性人工智能工具应该帮助员工,而不是“做”他们的工作。许多人强调,生成性AI不应该超越工具状态,执行某些类型的知识工作,例如,生成性智能不应用于决策、设置战略方向或形成人际关系。
    所有小组的参与者都担心生成性人工智能可能会犯错误或产生不良输出。例如,广告和商业团体的参与者都担心生成的内容可能违反品牌标准或版权,律师谈到需要证明法律文件的准确性。一位参与者讲述了一则新闻故事,其中一名律师提交了一份用ChatGPT创建的法律摘要,其中包括“幻觉”案件:
    L7级:我根本没用过。但我对引进新技术持谨慎态度。特别是作为诉讼人,无论何时你向法院提交任何东西,你都要根据我们所称的第11条规则签署。你所表达的是真实和准确的,你对自己所做的一切都有一个真诚的理由。我想你可能听说过这样一个案例,一个人用人工智能写了他的简报,然后人工智能生成了六个案例,引用了一些显然不存在的观点。这对我来说是令人难以置信的。
    L6级:如果我能做到的话,我会赢很多案子。。。
    L7级:没错。确切地。然后这个家伙,做这件事的律师,他有点。。。全国性的笑话。
    因此,生成性人工智能被视为具有潜在风险,所有群体的压倒性情绪是,人类需要检查大部分或全部生成性人工智的输出,以确保其质量。在某些领域,参与者规定,必须由合格的专业人员(如律师)进行检查。
    “人工智能会产生一些东西,然后我们会说是或否。”–J5
    “[生成性人工智能代码]不应该是没有人类测试和审查就投入生产的东西。”–第7页
    “我们假设的很多有问题的东西都来自这样一种想法,即人工智能可以是一个独立的[广告]团队,从头到尾做每一件事,并在没有任何人或类似人员同意的情况下发布这则广告。我认为这仍然是很科幻的……”–A3
    “我觉得你总是需要一些人为的监督,对吧?不管技术有多好,我只是不认为人类会过时。比如这怎么可能?”–A5

    4.1.3现有的行业治理结构有责任监督生成性人工智能:“这只是我们已经在做的事情的一部分。”。

    与会者谈到了新的角色、责任和资格,以加强人类监督,并监测知识工作中生成性人工智能的使用和输出。
    “训练就像拿到驾照一样。一旦你有了能力并理解了规则,你就可以使用[生成人工智能]。”–A7(政策)
    与会者指出,许多此类监督职能虽然是新的,但很好地融入了现有的行业审查结构和政策。例如,律师审查律师助理或初级助理的工作,商业通信要经过法律和合规批准,软件开发要进行代码审查。参与者解释道:
    “目前存在对品牌声音、语气、风格和一致性的监督。生成的任何内容都必须经过批准列表……(有)适当的制衡。因此,如果人工智能违背了这些制衡,我会对人工智能为这一信息做出贡献感到非常高兴。”–B4
    “我们大多数地区已经有用户协议,其中涉及剽窃、仇恨言论等内容。我认为这正好适合我们大多数地区的用户协议。”–E5型

    4.1.4某些工作将被裁减,但不要指望会出现大范围的中断:“许多初级职位将被裁撤”,但“我认为治疗师不会离开。”。

    大多数行业的参与者预计,随着生成性人工智能简化公式化工作,某些工作可能会被淘汰。他们倾向于认为工作风险仅限于特定的入门级工作或有许多死记硬背任务的工作。例如,他们遗憾地强调,服务台、法律助理或产品摄影等工作面临风险。
    “我认为商业工作已经完成了。商业摄影花费了数十万美元,包括照明、化妆等。现在你可以直接输入……而不是支付制作费用,人工智能可以完成所有工作。他们不需要99%的角色在片场。不需要模特、摄影师、化妆、布景设计师等。摆脱大多数角色是可怕的。” –J6;J6(变更卡)
    许多参与者预计,即使在其行业中担任初级或类似角色的工人受到影响,他们个人也不太可能受到重大影响,例如,他们相信,生成性人工智能不太可能具备足够的技能,在其职业生涯的时限内取代人类专业人员。虽然一些人确实承认行业范围内发生变化的潜力,特别是在软件开发、广告或商业领域,但以下情绪通常是例外,而非常规:
    “作为一名沟通者,机器人编写者的表现有点吓人,我知道我们的班加罗尔团队正在考虑雇佣机器人或将其安装到位,而不是雇佣人类。因此,作为一名高管,在节省成本方面有一个令人兴奋的因素,但作为一名交流者,看到整个行业出现这种情况也是一个恐吓因素新闻记者或主修[传播学]的人可以在一定程度上被取代。因此,我认为特定的工作、组织、整个行业和世界都会受到影响。” –B4
    “(因为生成性人工智能)作家可能会开始在新闻业变得过时……我们可能会被推到次要位置,不依赖任何东西来制作内容。坦率地说,我非常害怕,并相信我可能很快就会改变职业道路。”–J5(变更卡)
    同时,参与者对自己的预测以及更广泛的叙述都有些不确定。为了支持他们的推理,他们有时会将其他资源比作互联网、谷歌搜索或特定行业的数据库,如法律界的LexisNexis。
    “我认为某些东西是取代旧工具的工具。这并不是一个新工具。我认为它只是对我们已有的东西的增强。例如……Lexis。”–L7
    大体上,参与者倾向于温和地看待各自行业相对于敏感的 叙述的甚至更温和革命性的 叙述的。虽然一些参与者知道媒体的说法,但他们对媒体的说法持怀疑态度,尽管他们有时会发现这些说法如果不令人信服的话,也会有牵连。在某些情况下,他们通过建议对报告的统计数据进行调整,实际上对这些说法不屑一顾。总的来说,大多数行业的参与者似乎觉得其他力量比生成性人工智能更具破坏性4.2我们将在第节中进一步讨论行业特定期望4.2.5.
    “我一次又一次地看到媒体公司的每个人都跑到同一个球门柱上。就像视频转轴是最著名的一样。作为一名记者,这让人筋疲力尽,我们看着所有这些人被解雇,一年后他们说,‘没关系,这不是我们想象中的答案,回到了我们开始的地方。’<J2型插话:[还记得]播客吗<笑>>没错。我们都看到了。所以我不知道ChatGPT在这整个画面中是如何表现出来的,但我确实认为它可能不像一些人所做的那样疯狂,因为它将给我们的行业带来潮汐变化。但这可能是60%的路程。” –J3
    L4级:高盛(Goldman Sachs)表示,人工智能将在未来几年夺走超过3亿个工作岗位。7
    L7级:三亿?
    L4级:三亿。
    主持人:你觉得这有道理吗?
    L7级:所以所有美国人都会被解雇。
    L4级:是的。三亿。。。
    L2级麦肯锡等一些研究过此类预测的公司发现,他们错得比对得多。但可怕的是,即使有5000万人,它也会对所有事情产生连锁反应。你知道,这太棒了。他们通常并不完全正确。但事实是,你会被这个标题吓到。。。谈论焦虑。”你好,我是不是3亿人中的一员?”很难。很难。
    L4级:我读的时候很担心。

    4.1.5需要进化和适应生成性人工智能:“让我们与时俱进,对吧?”。

    虽然一些与会者对许多人将失去工作(特别是初级职位)的前景感到悲伤,但其他人认为这些变化是知识工作的自然演变,可能会带来新的机会。
    “尽管人类天生就倾向于尝试和抵制变革,但变革是一个永恒的过程。只要独立思考和学习的基线仍然被视为一项需要掌握和拥有的重要技能,我完全支持变革和不断适应。”–L5(变更卡)
    A2类:【生成人工智能】最终可能取代某些行业的头部摄影或照片拍摄。。。
    A8类:是的。我想等到我可以说,“(产生它)在安妮·莱博维茨的静脉,”你知道吗?。。。
    A2类:我要去那里。事情就是这样。它只会变得更好。那么你该怎么处理呢?所有这些创造者,所有这些工作会发生什么?。。。我希望总是有一个空间给有创造力的人。。。(但)我认为这些工作中有很大一部分会消失。比如简单的头像摄影师或护照拍照人,诸如此类。我不知道。在这一点上,它似乎有点暗淡和模糊,但我可以看到它发生了。。。我觉得工作岗位、创意岗位和较小的岗位都会消失,然后将由更多的重量级公司来监管技术。
    第5页这不就是进化吗?我们从没有机器变成了机器,人们失去了数以百万计的工作。这难道不是进化的一部分吗?我觉得可能还有一些人性方面可以进入人工智能……有人会说‘哦,这不对’吗?也许喜欢质量控制。
    一些人还强调,知识工作者需要调整和“重新设置技能”,以利用这一新工具,保持相关性,不被落在后面。作为一个具体的例子,参与者谈到了即将发生的变化如何需要“快速工程”技能来从生成性人工智能系统中获得改进的输出。
    “[收件人地下三层]你刚毕业?我会学会适应它,使用它,而不是忽视它……我想它是从马变成车,这是不可避免的。。。与其忽视它,不如学会开车。。。如何利用技术优势,更高效地完成工作?” –B4
    “人们会调整。我们都会继续前进……我确实遇到了很多人,很多技术专家,我的同事,同事,他们被它吓坏了。但我告诉自己,如果你被人工智能本身吓坏了,那么也许你作为一个人的进化速度不够快……我认为它给了我们一个新的挑战,我们应该接受它。我们应该接受它,然后更快地发展,接受并调整。” –S1
    “我认为,如果你在这个行业,跟上这些工具的步伐,并将其作为一种资产来提高你的工作,将使你成为不可替代的人。”–B3(变更卡)

    4.2社会力量:去杀戮、去人性化、隔离和去信息

    我们要求参与者描述未来一到两年内他们所在行业的重要变化。虽然这些变化中有一些是由生成性人工智能驱动的,但许多不是。例如,心理健康专业人士预计,迷幻药更广泛的合法化将在他们的领域带来变革。在某些情况下,参与者预计生成性人工智能会与其他变化相互作用,对其行业产生特殊影响。最重要的是,参与者谈到了四种现有的全球和国家力量,它们构成了他们对生成人工智能影响的预期。具体而言,他们预计生成性人工智能将放大以下影响知识工作者在其行业中工作方式的问题:去杀戮、非人性化、脱节和虚假信息。这些问题可以描述为社会力量[46,184].

    4.2.1去技能化:知识工作的“普及化”。

    独立于生成性人工智能,一些力量正在某些知识产业积极转移收入和就业。例如,COVID-19加快了远程服务的出现,如BetterHelp和LegalZoom,因为提供商和客户都经常需要虚拟会话。虽然这类服务为客户提供了更容易获得心理健康、法律或其他建议的途径,并可能以更实惠的价格惠及更多人,但与会者认为,它们提供的服务质量较低,并削弱了对训练有素专业人员的需求。M6型号描述了远程医疗科技初创公司如何比生成型人工智能对就业构成更大的威胁:
    “像BetterHelp这样的东西是对我们的工作保障/生计的最大威胁。因为我认为这是对精神卫生保健的认可–M6
    工作的“Uberification”指的是政治经济中工作如何“通过使用数字技术……创造‘平台资本主义’”的更广泛转变[163,第61页]。这些劳动条件的一个关键因素是用自营职业者取代雇员[74]. 参与者,特别是律师和记者,反映了向合同、自由职业者或“永久”职位的重大转变(工人在雇主中以扩展的自由职业者身份工作)。由于对专业知识和成本节约措施的强烈需求,这些职位不稳定,无法提供与全职工作同等的福利[185].
    生成性人工智能可能会与这些现有的劳动力趋势相互作用,以进一步降低行业技能,或减少训练有素的专业人员的机会。例如,一些参与者推测,由于几乎没有就业保护措施,非永久性就业比全职就业更容易被生成性人工智能取代。一些人还指出,生成性人工智能可以通过提出未经培训的人工工作者可以传递给客户的文本字符串来促进廉价的在线服务。此外,法律和心理健康等领域的参与者表示担心,客户有时可能会使用生成性人工智能提供建议,而不是承担咨询人类专业人员的费用,这会损害专业知识和收入,同时也会给客户带来不良结果。
    与会者谈到了这些趋势对他们个人的影响。例如,虽然先前对零工经济的担忧通常集中在蓝领工作上,但参与者将零工经济、生成性人工智能和白领工作联系起来。J2型曾担任劳工记者,此前撰写过科技对蓝领工人的影响。随着生成性人工智能在过去一年的兴起,他的担忧变得更加直接和个性化。
    “作为一名工人,我并不太担心[工作空间的数字化]直到现在,因为,你知道,他们正在数字化工厂或其他。。。现在它实际上开始影响我的行业。所有这些关于工厂工人或优步司机的问题,现在都开始被问及我们[记者],也适用于我们。” –J2
    与会者还讨论了这些力量如何影响他们的工资和机会,例如。,M6型号认为这些变化可能会降低他的工资或损害他对专业职业的投资,同时也会降低服务质量:
    “我的学生贷款仍然很高。我有一部分想,‘好吧,如果BetterHelp能让人们负担得起,那就太好了。’但我的工作保障,我偿还学生贷款的能力呢?”?…然后是生成人工智能聊天的想法。。。我确实担心这样做会损害我们的工作安全,但我认为实际上也不能为消费者提供足够的关怀。” –M6
    第7部分分享了类似的担忧,即生成性人工智能可能会使她的硬技能价值降低,并阻碍她的职业生涯:
    “我真的不知道,作为一个有着非传统背景的女孩,我可以成为一名工程师。我还认为这是一种赚更多钱的方式。对我来说,这绝对是一种让我的薪水翻倍、翻三倍、过上我梦寐以求的生活的方式。因此,这有点令人沮丧,尽管感觉很不舒服第一个世界性的问题是,‘哦,现在我可能在几年后又回到了没有非常有价值的技能或每个人都能拥有的技能的境地。’。。。这样说有点令人沮丧,‘哦,终于领先了。’。我终于到达了我想要的地方,“现在我必须再次追赶。” –S7
    与会者还表示担心,鉴于其适合于低级任务,生成性人工智能可能会取消许多初级职位,从而取消晋升更高级职位的途径:
    “如果我没有开始担任SDR(销售开发代表),我就不会从事我现在的工作,也不会担任我现在的角色。想到这些入门级的角色可能不再必要,我感到很难过……(这)令人沮丧,因为我认为每个人都必须从某个地方开始,如果你没有这些基本知识,你将如何从那里成长?”–S6系列;S6(更改卡)
    “很多帮助台的职位都可以被取消……我对此不太满意。我是从帮助台开始的。我根本没有上过电脑学校。因此,取消很多这样的工作真的很难过,因为它们只是进入一个好领域的一个非常容易的开始。”–第4页
    这些围绕去技能、体力劳动、零工经济和更广泛的失业问题,都是在美国更广泛的经济不确定性背景下出现的。参与者有时会猜测,如何通过普遍基本收入、,但由于政府或雇主在资本主义环境中的地位,他们不相信政府或雇主会有意义地解决这些劳动力变化或其他与生成性人工智能相关的道德问题:
    第7部分我只是觉得在资本主义制度下不可能有好的人工智能……我仍在想我对人工智能的真正感受。我不认为它本质上是邪恶或坏的,但我认为当你谈论在一家公司或企业使用它时,高层人士总是关心盈利、裁员等问题。所以我只是想,在这最后阶段,不管它有多好,它总是让人感觉很恶心很糟糕。
    第5章:理想情况下,它就像《星际迷航》中的宇宙。
    第7部分:是的。
    第5章:我会喜欢的,没有人需要工作。我们都很开心。
    第7部分:那太好了。但是,没有一个高层获得所有利润。
    第5章:是的。

    4.2.2去人性化:“谁的工作是找出如何将人性融入人工智能?”。

    用算法取代人工会引发人们对非人性化的担忧,因为在这种非人性化中,任务失去了人类如何相互作用的特征[68]变得更加冷漠[161]. 许多与会者担心,使用生成性人工智能可能会以各种方式导致人性的丧失。一些参与者提出了在使用生成性人工智能时保留人性的字面机制,提出了一个具体的配额,例如“至少80%的单词、照片、我们网站上的一切都是由人脑创造的”或“60%的(工作)需要由人来完成”一个担忧是,他们觉得生成性人工智能没有能力进行人际交往。例如,商业传播专业人士谈到了个人接触和真实人际交往的重要性,而心理健康专业人士则表示,生成性人工智无法建立人与人之间的融洽关系,这是治疗有效所必需的。另一个担忧是,参与者在自己执行任务时会感到高兴,这是一种非生成性人工智能提供的情感体验。以非人性化的方式将算法技术引入组织会侵蚀员工的自主意识[129,159]和整体工作满意度[107]. 参与者在将生成性人工智能引入其行业的背景下回应了这些见解。
    “对我来说,从摄影的角度来看,他们正在用人工智能中的生成来取代实际的拍照,而我喜欢摄影的全部原因是我喜欢拿着相机。我喜欢给它定格。我喜欢与人的互动等等。而生成性人工智能完全摆脱了这一切。人类的联系……”–J6
    “有些人从编写代码中获得了快乐和意义感,这就是他们的事情……这些人花了多年时间掌握了这一行业。我认为这就是令人难过的地方。”–S2
    主持人那么,(本科生)应该去攻读计算机科学学位,学习大量数学和代码,还是应该立即参加一些工程训练营?。。。S2系列好吧,在艺术学校的背景下也是同样的问题。应该有人去学习如何作画以及其中涉及的所有复杂问题吗?还是因为电脑可以为你吐出那幅画而徒劳?我认为没有一个正确的答案。。。如果有人想去计算机科学学校,因为。。。学习和修修补补很有趣,他们应该这样做,不要让机器人阻止他们。
    与会者强调了人类生产和创造力的价值。他们的评论让人想起了工艺美术运动,该运动挑战了大规模生产物品的完整性,将其与非人性化和生产标准的下降联系在一起[139]. 工艺美术运动重视手工生产和人类工艺,尽管它的效率低于工业时代普遍存在的大规模生产。同样,参与者谈到了手工制作的价值,以及人类创造物体的高质量和意义。与此同时,一些人担心,随着时间的推移,公众的审美标准可能会转向不那么人性化的内容。
    “我认为屏幕外有可能出现真实的东西,比如相册中的真实照片。比如谁再制作这些照片?但我认为这样的事情会变得几乎神圣,类似于…远离智能手机和屏幕的愚蠢手机运动。我认为在某种程度上会朝着这个方向发展。就像你可以用手触摸和制作的东西。。。想要获得个人的触觉,知道创造东西需要时间、意图、目的和深思熟虑。我认为这真的很美。我想我并没有真正看到人工智能的美丽。”–A1
    “我认为许多熟练的劳动力和工匠式的工作将重新流行起来,人工智能很难取代它们。我的男朋友最近上了家具学校,所以他是一名木匠和一名优秀的家具制造商。我只是想知道我现在是如何养家糊口的,但我想很快他就会成为养家糊口,因为有些东西是手工制作的,有些东西是高质量的。我们生活在这个快速时尚的时代,在这个时代,产品只是大规模生产。我认为,人们真正渴望的是一种经过精心制作、经久耐用、富有创造力的东西。。。制作一张桌子需要很多个人技能和体力劳动……我很难想象生成性人工智能真的能够取代它。” –S7
    “我相信,当人工智能创建的内容(文章、视频、信息图形等)开始渗入我们的订阅源时,我们最终会像往常一样接受其奇怪的美学(我们称之为‘机器人’、‘神奇’等)。这可能会创造我们所知的数字媒体的全新美学。我担心。”–J8(变更卡)
    一些与会者强调,人们必须保持批判性思维技能,以及从事被转移到生成性人工智能上的工作的能力,人们不能变得懒惰。与此同时,一些人认识到懒惰和高效之间有一条微妙的界线,因此可以节省时间进行更有意义的活动。
    “我希望我的女儿永远不会发现(ChatGPT)……我不想让它剥夺创造力。我想让我的女儿思考自己的想法。比如当她在学习的时候。这对我来说真的很重要。”–L3级
    “我认为你需要积极而不偷懒,因为这很有帮助。你需要说,‘好吧,我不会让这个责任落在这台机器上。我仍然会在这里发挥最大的作用……’”–A1
    答7:我想如果我在高中的话,我现在会很懒,我会尽可能地利用[生成人工智能]。。。如果你现在不想学的话,你可以一辈子都学不到。。。。A6级:它是懒惰还是聪明?你是在长期学习还是在简化流程?

    4.2.3断开连接:“你必须在那里。”。

    断开联系的感觉会在知识工作中表现出来,例如,新的技术导向的工作安排会增加员工的孤立感[176]更广泛的社会孤立趋势会对知识工作实践施加外部压力[63]. 参与者谈到了越来越多的社会隔阂,例如“孤独流行病”[133]部分原因是新冠肺炎和相应的社会隔离,远程/虚拟工作和学校教育的增加,以及其他因素,如电话和社交媒体使用的升级,甚至上瘾。他们担心生成性人工智能会进一步脱离物理和社会经验。例如,心理健康专业人士担心,生成性人工智能的治疗用途可能会产生与预期相反的效果,并加剧孤独感,即使患者转向它寻求安慰:
    “我听到人们在聊天机器人模型中谈论人工智能(用于心理健康)的用途,在很大程度上,我强烈反对它。因为我认为,我们需要心理健康服务的人数增加的很大一部分原因是脱节。我认为,虽然在那一刻,有一个机器人聊天可能真的对你的客户有所帮助,但它仍然不能取代人机交互。我认为,这种脱节是导致这场(心理健康)危机的主要原因。” –M6
    我们的参与者还描述了好的新闻工作需要“实地”,以及自由职业者和远程工作的持续增长如何威胁新闻制作的质量,这一趋势可能会因使用生成性人工智能而进一步加剧。第8页用生成性人工智能将新闻业的未来描述为“只是更多地回收和脱离现实,让人们更多地与他们正在做的事情分离,而不是完全沉浸其中。”与会者还表示担心,随着时间的推移,随着新的生成性人工智能在层层回收的、越来越非人类的内容上接受培训,内容与现实越来越脱节。
    “作为记者,当我们报道事情时,我们目前正在现场进行报道,与人交谈,以及类似的事情。越来越多的情况变得像是我们通过Zoom与人们交谈,或者我们不再被空运到其他地方报道事情,我们正在雇佣自由职业者……我们从海外获得了大量视频然后我们必须从中有所收获,因为我们在那里雇佣了自由职业者,而不是在现场做。因此,这是一种与我们正在报道的内容、我们正在思考的内容以及世界实际情况的逐渐、非常逐渐的断开。” –J8
    “[新闻聚合器]是所有故事的同质化。我们失去了目击者或描述者的个人声音,你知道吗?…[作为一名记者]你仍然需要体验,你需要品尝,你需要看到,你需要感受,以便将这些人类体验的感受转录给你的读者。” –J1
    “我认为这是一个非常愚蠢和回收的过程。我担心回收那些已经用文字和图像回收的东西的长期影响,以及这会对想法产生什么影响。”–J8

    4.2.4信息破解:“我认为他们称之为幻觉……这是非常权威的。”。

    信息失真是指故意传播虚假、不准确或误导性信息,故意造成公众伤害[85]而它的产生往往是由“意识形态、金钱和/或地位和关注”所驱动的[119,第27页]。与会者对生成性人工智能在虚假信息以及更广泛的低质量内容制作中可能发挥的作用表示担忧,特别是在美国讨论两极分化、文化战争和媒体偏见的更广泛背景下。一个担忧是,由于生成性人工智能通常在其培训中包含互联网数据,其质量将受到互联网上现有低质量内容的影响:
    “它不能像现在这样仅仅从互联网上删除它,因为在人工智能之前有太多错误信息。”–J7
    “我真的很担心人工智能在互联网上学习东西,只是一片混乱。但是如果有一个人工智能可以从权威来源收集所有信息……我会非常兴奋。”–A4
    与会者进一步表示担心,生成性人工智能本身会扩散,或被用来制作额外的低质量内容。他们担心目前媒体和网络上的错误信息和虚假信息,并将生成性人工智能视为一种工具,可以使其更容易、更快地生成有害内容。他们预计这将产生重大的负面社会和政治影响:
    “(我担心)宣传是如此不可辨别,以至于没有人会知道什么是真的……我们无法确定什么是真的,什么是假的,这可能是我们的末日。”–A6级
    “这看起来确实是深度伪造的一个主要问题,尤其是在色情领域,这是维持互联网运行的原因。复仇色情已经存在问题,人们可以用任何人的脸、任何人的相貌来做这件事……人类最坏的欲望和欲望将由生成性人工智能产生。” –J7
    “生成性人工智能对我们美国人和记者来说都是一个不合时宜的时刻。我们对真理和谬误等词的敏感性存在这样一个问题,以及真理和客观真理与主观真理的区别。”–J3
    与会者还担心,经济或政治不稳定等广泛因素造成的媒体动荡目前正在推动新闻聚合和媒体集中,从而降低公众可获得信息的质量,并使内容“低调”、同质化或政治化。他们担心生成性人工智能会加剧这些问题。J2型谈到了始于欧洲的媒体趋势:
    “[一个变化]不是由生成性人工智能引起的,但更糟糕的可能是媒体的进一步集中。这是由亿万富翁左右购买媒体,聚集媒体,改变然后有时增加编辑行,以造福他们……作为[他们]的工具造成的政治议程。。。我相信生成性人工智能可能会让情况变得更糟,因为突然之间,这些人将能够购买和集中媒体。如果有人有任何道德问题,好吧,你知道,门就在那里。无论如何,生成性人工智能可以以更便宜的价格做到这一点。。。买份报纸,把整个编辑室都炒了。。。我们将通过生成人工智能来运行它。”–J2

    4.2.5行业观点。

    以上是我们研究的各个行业的主题。这里我们为每个行业提供更多详细信息。为了阐明最突出的要点并抓住每一次讨论的独特性,我们创建了与我们从每组收到的回复的内容、语言和语调相一致的复合材料[47,186],如表所示4这些组合说明了主题在各个行业中的细微差别;例如,参与者认为在其特定行业中哪些角色最可能受到影响。
    表4:
    精神卫生 去技术化非人性化断开我们致力于解决社会最重要的问题之一:心理健康是一场国家危机,孤独加剧了这场危机。合格的心理健康专业人员严重短缺治疗需要计算机无法提供的人与人之间的联系,所以我们觉得我们的工作对生成性人工智能来说非常安全。然而,我们担心远程医疗服务提供低质量的服务,但仍会破坏我们的工作安全。生成性人工智能可能是一个有用的工具,用于管理工作、模拟谈话治疗培训,或者在人们无法立即访问人类治疗师时作为权宜之计。
    教育类 人因审查非人性化断开我们不希望生成性人工智能对我们的工作产生深远影响。学生已经有了很多作弊的方法,而生成人工智能只是我们处理作弊的一种更新、更好的方法审查他们的工作。我们担心生成性人工智能可能会让学生懒惰如果使用不当。我们也对过度使用技术和社会隔离因为大流行期间的远程教育。由于基于标准的评分,我们正在重组大部分课程。这给了我们更多的自由来设计新的活动,所以也许有机会将生成性人工智能融入我们的课程中。
    法学 卑微的任务工具人因审查生成性人工智能是一种可以执行公式化法律任务的工具比如起草或研究,只要其工作由合格的律师审查,取代入门级和辅助职位,并导致失业。我们听过新闻界关于虚假引用的报道,这让我们对使用它感到谨慎,即使有人的监督。生成性人工智能不太可能有足够的技能来取代人类专业人员,它不应该做决定,也不应该充当律师、法官或陪审团。然而,我们预计客户将开始使用生成性人工智能工具为自己做一些法律工作,但效果不佳。
    新闻 去技术化非人性化虚假信息我们在一个崇高的职业中工作,我们已经在许多方面陷入困境,面临着错误信息、新闻聚合器、收入流减少等问题。生成性人工智能将加剧当前不稳定/自由职业的就业工资低,失业,新闻业作为一个领域的侵蚀。生成性人工智能使低质量供应商更容易产生错误信息对社会产生有害影响。生成性人工智能可能会取代一些我们最喜欢的工作比如写作或新闻摄影。
    商业通信 工具人因审查需要适应生成性人工智能可以完成我们的许多工作,它将不可避免地被我们的行业采用。公司和员工需要适应、学习并“与人工智能一起成长”为了保持相关性和保护工作安全。我们的大部分写作都是公式化的,而生成人工智能是一种制作早期草稿的好工具日常、大量和/或一次性通信,如电子邮件通知。生成性人工智能需要大量的人力监督和指导,特别是为了确保它符合合规性和法律标准,并与我们的品牌声音保持一致。我们可以利用现有的审批结构来检查其输出。
    广告 工具人因审查失去某些工作生成性人工智能非常适合广告行业的许多任务。悲哀地,某些工作会消失最直接的是与产品摄影和视频制作相关的,布局和文案受到严重威胁。然而,创造性监督仍将属于人类的职权范围,而生成性人工智能将是一个令人兴奋的头脑风暴工具.需要进行人工检查最具创造力的人工智能输出,尤其是确保它不会违反品牌标准或版权。事实上,可能会创建新的团队来进行这些检查。我们的行业提倡并拥抱变革,但我们也重视人类工艺,我们经常挑战数字制作内容和体验的质量。
    软件开发 需要适应去技术化非人性化生成性人工智能可能会在软件开发的大多数方面推动变革。例如,这包括自动化繁琐乏味的任务,取消许多初级角色(这将限制新人进入该领域的途径)以及AI重塑低代码技术解决方案的能力,甚至在严肃的软件公司中编写生产就绪代码。我们对未来感到不确定适应压力生成人工智能的新进展。我们中的一些人担心我们在一个有利可图的职业上投入的时间和教育可能会付诸东流让我们回到了起点。一些人进入软件工程是为了赚钱,但我们中的一些人是受我们对修补和解决问题的热爱以及生成性人工智能的激励可能会接手很多给我们带来欢乐的工作.
    表4:复合材料展示了参与者对生成性人工智能对其行业影响的最显著期望,行业从上到下按最小到最大的预期影响排序。在每个行业的名称下,我们列出了最突出的三个主题(省力工具 叙述的蓝色; 社会力量–红色). 前三个主题和合成材料都不能全面代表所有观点,例如,尽管《法律》中广泛讨论了去杀戮,但它不是前三个中的一个。

    5讨论

    在本节中,我们基于参与者对生成性人工智能和知识工作交叉点关键人机交互研究问题的见解。而不是关注当前用户实践或这些系统早期版本的设计建议,我们试图提出更大的问题,即如何理解和塑造生成性人工智能的影响。其中一些工作完全属于HCI的范围,但其中大部分可能需要与其他学术学科以及利益相关者(如知识工作者、决策者、民间社会等)进行更广泛的合作。

    5.1研究挑战:人在回路

    参与者绝大多数支持人在环(HITL)方法(即,如第节所述,增加人的审查或监督4.1.2)作为对生成性人工智能的许多问题的必要和充分的补救。例如,他们希望在他们的行业中,人类审核员可以检查所有生成性人工人工智能的输出,并纠正任何不准确或其他质量问题。法律学者报告称,监管机构也有类似的倾向,用他们所说的“在人工智能中打一巴掌”的方法来解决对人工智能的“全面”担忧[48].
    然而,HITL文献指出了参与者并不明显的严重、未解决的实际问题。例如,人类在审查算法输出时会犯很多错误,并且经常以有害的方式覆盖算法;因此,人为监督政策可能会给人一种虚假的安全感,而不是整体上改善结果[35,77]. 此外,研究表明,有效配置人机协调极为困难,因此切换通常设计得很差,并产生有害结果[48,61,78]. 此外,学者们认为,HITL方法不成比例地要求人类承担责任,即使在实践中,人类的影响力很小,或者没有适当的技能或时间进行审查,这使得审查人员要为技术或结构故障承担责任[14,48,56,61,78,180]. 这提出了两个主要的研究问题:
    #1.我们如何提高对HITL局限性的认识?
    我们认为,在应用HITL解决方案时务必谨慎。那些正在就生成性人工智能的缓解措施做出决策的人(例如,监管机构、知识产业的决策者)应该意识到HITL目前的局限性,因此他们对其解决问题的潜力并不过于乐观。
    #2.我们如何改进HITL系统?
    尽管目前存在局限性,但仍存在许多提高HITL效力的机会。生成性人工智能的出现特别强调了对HITL方法的需求,这种方法将在规模上很好地用于审查生成的文本、图像和视频。此外,认知强迫干预(如要求员工在展示生成人工智能的输出之前生成某些初步内容)可以进行分析而非启发式思考[35]. 此外,评审员可以接受批判性评审生成性人工智能输出的专业培训;这些审查技能最终可能与其他技能(如即时工程)一样有价值。总的来说,虽然改进的解决方案不太可能缓解HITL的所有担忧[78]更多的研究和创新设计与开发可能会带来更好的结果。

    5.2研究挑战:知识工作者对影响的期望

    如第节所述4.1.4,我们观察到参与者对生成性人工智能如何改变其领域的期望与媒体、技术专家和学术界提供的更广泛的破坏性叙述之间存在着巨大差距——参与者通常对潜在影响的看法较为有限。这提出了以下研究问题:
    #3为什么一些知识工作者觉得他们将在很大程度上不受生成性人工智能的影响?
    是否有某些员工对生成性人工智能的变化更具免疫力?这是因为缺乏想象力或意识,还是因为知识工作者对自己的行业有着特殊的理解,而其他叙述中没有考虑到这一点?
    #4我们如何提高知识工作者对 革命性的 叙述的 ?
    更好地理解生成性人工智能如何以及为什么被定位为能够胜任人类专家级别的工作,这将使知识工作者能够更有意义地提供利益相关者的意见。此外,知识工作者是否低估了生成性人工智能的作用范围和用途,以及它如何不仅改变特定任务或工作,还改变更广泛的行业?如果是这样,什么干预措施和透明度工件可能最有意义?例如,人工智能系统大部分尚未专门化;也许开发和共享特定于行业的演示会有所帮助。

    5.3研究挑战:去技能

    随着技术改变工作方式,现有和新职业的必要技能也发生了改变[1]创造了同时出现失业和劳动力短缺的矛盾[13]. 与此相一致,参与者表示担心,如第节所述,生成性人工智能可能会对其技能的价值和发展产生负面影响4.2.1这就提出了以下研究问题:
    #5我们如何帮助知识工作者适应潜在但不确定的广泛变革?
    什么样的培训会使知识型员工受益,帮助他们重新适应可能的变化?除了即时工程之外,人工智能输出的人工审查培训似乎很有希望,关键思维技能的发展以及管理复杂、高级用例的能力也是如此。此外,针对劳动力市场变化的传统国家政策通常依赖传统的中等教育[43]这通常不足以应对技术变革的步伐[168]. 在单个组织内进行再培训是一种更具成本效益和以员工为中心的战略,可以随着知识工作中的技术变化而发展[86]. 未来的工作可能会探索劳动力转移,包括如何以最小化早熟程度的方式重新或提高工人的技能。此外,研究人员还讨论了如何利用人力来弥补自动化系统目前的能力差距,以及人类如何成功地完成通常看不见的工作,最终导致用自动化系统取代人力,例如:。,通过证明商业模式是可行的,或者通过训练系统来执行以前由人类完成的工作[37,67,88,178]. 我们如何为那些实现和/或受生成性人工智能自动化影响的工人(通常来自边缘化群体)探索保护、机会和奖励结构?
    #6在向生成性人工智能的潜在过渡期间,我们如何更好地设计知识工作的更公平分配和评估?
    初级职位的潜在侵蚀等变化是否会进一步巩固工作场所现有的种族和性别等级制度[12]? 实现一个解放或解放的未来在多大程度上涉及到抵制工作的贬值和去杀戮,以便AI介导的系统不会强化压迫模式,而这种压迫模式是根据种族界线进行历史剥削的正当理由[21]? 在这种情况下,我们如何更好地进行设计或寻求其他途径来促进正义[90]? 在那些依赖基础技能发展的行业中,如果最有天赋的专家不完成入门级任务,他们将如何成长?哪种系统可以支持人类发展必要的技能,即使生成人工智能可以执行这些任务?

    5.4研究挑战:去人类化

    作为一个主要研究人类和计算机系统之间接口的研究团体,了解这些系统在哪里不舒服、不可接受地侵犯了人们固有的人性意识应该是一个关键的研究议程。为了探讨非人性化,我们建议通过两种调查途径来解决参与者提出的严重关切,如第节所述4.2.2:
    #7我们如何学习和保护那些给人们带来快乐和意义的任务,但生成性人工智能可以做得和人类一样好或更好?
    我们应该理解的不仅仅是许多经济学家所关注的(例如[4,191]),哪些任务可以被人工智能系统有效取代,但哪些任务本身也能带来欢乐并加强人性。通过开始记录这些有意义的任务,但在某些情况下也可以通过人工智能系统完成,甚至以更高质量或更高效的方式完成,我们可以开始设计保护这些任务的方法,或者至少就何时将其自动化做出合理的决定。这可能涉及HCI干预,以设计系统,突出或保留人类的某些工作或决策,或更广泛的监管问题,以保护整个社会的某些类型的工作。虽然许多乌托邦愿景涉及到被人工智能从工作中解放出来并从事新的、创造性的艺术活动的人类,但失去当前工作和解决问题中存在的手艺、欢乐和人性可能会带来重大不利影响,包括使现有的不平等现象永久化并进一步加深[12]. 与“解放”个人不同,生成性人工智能只能将非人道劳动的负担转移到不同的群体,或创造新形式的贬值劳动。此外,在执行需要创造力或智力严谨的任务时,它可能会削弱人类在这些领域的贡献的价值和独特性,强化对人类意义的狭隘和排斥性定义。
    #8我们如何促进批判性思维,同时防止人们变得懒惰?
    除了某些任务所固有的乐趣和意义外,我们的参与者还发现了推理和批判性思维的内在价值。参与者担心人工智能会减少或删除挑战人类或迫使人类解决问题的任务,从而导致一个懒惰的社会。虽然HCI社区内的大量工作已经探索了人类和AI系统如何协作以获得更高质量和更具创造性的结果[41,87,115,169,177],这个问题鼓励研究如何设计这些协作来支持知识工作者[73]以及直接让人们参与解决问题而不是简单地提供答案的系统设计。

    5.5研究挑战:护栏

    负责任的人工智能从公布的原则到更具可操作性和/或可衡量的战略,都获得了巨大的吸引力。虽然一些问题(如可解释性和公平性)更接近于在系统设计中进行具体补救,但其他广泛的社会问题需要在工程和系统设计之外进行额外的工作,包括危害评估、利益相关者参与以及对社区结果的更多关注。考虑参与者优先考虑的社会力量,如第节所述4.2当前的责任指标与虚假信息最为相关,而在去杀戮、去人性化和断开连接方面提供的信息较少。这就引出了以下问题:
    #9我们如何设计负责任的人工智能方法来生成包含复杂全球动态的人工智能?
    负责任的人工智能如何更全面、全面地考虑影响和危害?我们的研究结果强调了在与生成性人工智能的开发、部署和使用条件相交叉的社会力量中,必须以何种方式考虑其影响。因此,仅停留在模型评估(例如,根据预先确定的基准分析输出)上的危害或影响分析方法是不够的。
    #10负责任的AI评估如何更充分地纳入利益相关者的意见?
    负责任的AI产品评估通常以预测推出产品的危害为中心[26,31]通过考虑上下文使用可能对用户和社区造成的伤害[6]. 许多负责任的人工智能干预措施面向面向开发者的干预措施,例如制定人工智能原则[65]教育从业者培养道德意识[108]以及通过训练数据缓解、模型内控制(例如,强化学习)和门控输出的安全分类器来调节生成性人工智能系统[80]. 然而,对评估社区期望的人工智能形式和使用的关注有限。有意义地让实践社区参与进来[183]在探索这些问题时,例如通过基于社区的参与性研究[44,82],可以为实践的发展提供信息,使社区参与成为负责任的人工智能实践。同样,在劳动环境中,如何评估可能减少或大幅改变特定工作的人工智能系统的影响也会产生复杂的问题。虽然公司可能经常考虑整体业务的需求,但他们应该如何考虑个体工人的需求,特别是那些可能被裁减或更换工作的工人的需求,以及在开发这些人工智能解决方案之前,有没有方法直接让他们参与进来?我们如何教育或支持决策者参与利益相关者?

    6结论

    技术出现的历史背景影响着它最终被采用和使用的方式。在全球大流行、经济不确定性等因素的共同作用下,生成性人工智能变得更加可用和可见。在我们的研究中,许多知识工作者将生成性人工智能置于这一背景下,强调生成性人工智会加剧以下四种社会力量:去杀戮、非人性化、断开连接和虚假信息。换言之,他们没有将生成性人工智能视为其工作或行业的独立破坏者,而是将生成性AI定位为扩展和加剧现有力量。正如讨论中所述,这一框架提出了重要的新问题和机遇,以探索和塑造生成性人工智能对知识工作者及其行业的未来影响。

    致谢

    我们感谢参与者慷慨分享他们的见解和专业知识。我们感谢我们在Gemic的合作伙伴团队,包括T.J.Foley、Roger Galvez、David Ginsborg、Rebekah Park和Rohini Shah,感谢他们在该领域的支持。我们感谢我们在谷歌的同事,包括玛丽安·克罗克(Marian Croak)、延·根奈(Jen Gennai)、安吉拉·麦凯(Angela McKay)、阿诺普·辛哈(Anoop Sinha)和阿什利·沃克(Ashley Walker),感谢他们对这项工作的支持。

    A行业详细信息

    表5:
    行业简要概述角色招聘
    广告开展旨在销售项目或服务的促销工作中央:艺术总监、创意总监次要:撰稿人、平面设计师、插画师、动画师、社交媒体或搜索引擎优化策略师、媒体策划师、客户经理
    商业通信管理向员工、客户、利益相关者、媒体或公众等受众传递的内部和外部信息中央:内部沟通主管、沟通专员、行政助理次要:人力资源专家、内容策略师、企业公关
    教育类教学生并为他们的学习和发展做出贡献中央:中、高中教师、课程讲师或教授(大专)次要:校长或副校长、自由职业导师、阅读专家
    新闻制作和传播报告,让社会了解事件、人物、想法和任何其他可能被视为“有新闻价值”的东西中央:报纸记者、专栏作家、编辑作家次要:文案编辑、事实核查员、部门/内容编辑、新闻室编辑/经理、自由撰稿人(印刷/在线或广播)
    法学支持和执行既定的法律标准;为客户辩护中央:初级和高级员工次要:律师事务所合伙人、自由职业律师、律师助理、律师事务所职员、公设辩护人
    精神卫生支持、稳定和改善个人心理健康中央:心理学家、治疗师、精神病医生次要:社会工作者、病例经理/协调员、临床顾问
    软件开发设计、编程、部署和维护软件中央:初级和高级全套开发人员次要:数据库工程师、数据科学家、产品经理
    表5:概述我们对每个行业的看法,包括我们所描述的与招聘合作伙伴共享的中心和次要角色。

    B生成性导论人工智能

    我们研讨会的一个关键组成部分是为参与者提供思考生成性人工智能的基础。为此,在每次研讨会的早期,我们都会领导一个大约40分钟长的教育部分。我们首先进行了20分钟的演示,内容包括:
    人工智能的共同定义
    人工智能和生成性人工智能的简明历史,重点关注人工智能开发的早期目标等关键概念
    对变压器模型和LLM最近发生的变化进行了简短的非技术性解释
    15个关于生成性人工智能系统的特征、优点和风险的关键概念,将在整个研讨会中提及
    我们鼓励参与者在演示过程中随时提问,然后我们又花了20分钟进行进一步的提问和讨论。在每个研讨会中,演示和问答由两位作者中的一位领导,他们都是人工智能领域的研究人员。我们为每个小组的行业轻松定制了材料。
    我们提供的定义是:“人工智能是计算机或机器思考或学习的能力”,并且我们对如何思考这些术语提供了额外的颜色:“计算机或机器”、“思考”和“学习”
    我们分享的15个概念包括:
    偏见
    -生成性人工智能工具可能反映出训练数据中存在的社会偏见
    温和的
    -生成性人工智能通常会生成“平面”或通用文本,除非明确指示另行生成
    头脑风暴
    -生成性人工智能工具可以创建大纲、列表、草稿、可能的解决方案等
    紧急属性
    -生成性人工智能模型似乎具有其设计不具备的能力
    谎言
    -生成性人工智能可以伪造信息或来源,或错误地获取事实,但看起来却充满自信和吸引力
    语法
    -基于文本的Generative AI工具生成的内容可以写得很好,使用良好的语法并避免打字错误
    识别隐性结构
    -生成性人工智能可以发现以前没有明确说明的步骤和过程
    记忆/隐私泄露
    -生成性人工智能可以生成与其训练数据相同的内容
    模仿
    -生成型人工智能可以被要求模仿流派、语气、措辞、视觉风格或更多
    非确定性
    -生成性人工智能模型可以给出可变的、不一致的响应。这意味着当用户输入相同或类似的提示时,系统可能不会以相同的方式响应
    产地不明
    -生成性人工智能工具可能无法可靠地将特定内容追溯到训练数据的直接来源
    混音
    -生成型人工智能总是基于其训练数据生成内容。它可以以独特的方式重新组合数据,但仅限于重新组合训练数据
    安全无保障
    -生成性人工智能工具可能有内置的安全系统,试图阻止某些类型的内容或主题,但这些并非绝对正确
    刻度/速度
    -与其他AI和ML系统一样,生成性AI能够考虑大量数据,并以极快的速度反复处理许多任务
    可调整(Tweakable)
    -通过“即时工程”,生成性人工智能工具通常会受到影响,以某种方式生成内容

    C工件

    图1:
    图1:E6公司的教育行业地图。在登记入住期间,参与者被邀请绘制其行业或领域的地图。
    图2:
    图2:其中之一A4(A4)的更改卡,讨论他们对生成AI生成图像能力的期望。参与者分别填写了变更卡,然后在一次便利的讨论中分享。
    图3:
    图3:J5号机组他的政策建议限制在新闻编辑室中使用生成性人工智能。我们轻轻地为每个集团的行业定制了政策讲义。参与者分别完成了他们的政策讲义,然后在便利的讨论中分享。

    脚注

    这项工作是作者在谷歌时进行的。
    1
    LLM是一种基于大量数据(例如,TB或PB级)训练的机器学习模型,模型参数估计值为数十亿,能够生成结构良好且风格化的自然语言输出,以响应自然语言输入。
    2
    “知识工作者”一词是由彼得·德鲁克创造的[58]1959年。
    研讨会在2023年3月OpenAI的GPT-4模型发布几个月后举行,该模型被广泛认为是相对于已经令人印象深刻的2022年11月原始版本的重大改进。
    4
    我们注意到,他们的观点是由研讨会的内容以及他们之前的接触所决定的。几乎所有参与者都听说过生成人工智能或特定的生成人工智能系统,例如在媒体上或同事、朋友或家人那里。许多参与者也有使用应用程序的经验,尤其是ChatGPT或Midtrivel,至少是出于个人目的(例如写生日卡)或专业目的(例如起草备忘录)。
    5
    由于该主题的近期性,许多相关文献出现在预印本或白皮书中。
    6
    在整篇论文中,我们为参与者指定了以与其行业相关的字母开头的笔名,即。,A类(广告),B类(商业传播),E类(教育),J型(新闻学),L(左)(法律),M(M)(心理健康),以及S公司(软件开发)。在某些情况下,我们对引号的可读性进行了轻微的清理,例如,删除无关紧要的错误开头或删除诸如“like”或“um”之类的填充词。
    7
    参与者似乎指的是2023年3月发布的高盛(Goldman Sachs)报告[32]麦肯锡2023年6月发布的一份报告也强调了他们的发现[40]. 该报告指出,全球有3亿个全职工作面临自动化风险。媒体报道了这两篇报道,有时耸人听闻(见评论:[135])统计数据的地理范围往往不清楚。

    补充材料

    MP4文件-视频演示
    视频演示

    工具书类

    [1]
    Daron Acemoglu和David Autor。2011年,技能、任务和技术:对就业和收入的影响。在《劳动经济学手册》中,David Card和Orley Ashenfelter(编辑)。第4卷。爱思唯尔,1043-1171年。https://doi.org/10.1016/S0169-7218(11)02410-5
    [2]
    谷歌AI.2023。巴德。https://ai.google/research/projects/bard
    [3]
    稳定性AI.2022。稳定扩散。https://stablediffusionweb.com/
    [4]
    斯特凡妮娅·阿尔巴内西、安托尼奥·迪亚斯·达席尔瓦、胡安·F。Jimeno、Ana Lamo和Alena Wabitsch。2023.欧洲的新技术和就业机会。工作文件31357。国家经济研究局。https://doi.org/10.3386/w31357
    [5]
    萨菲娜·阿里(Safinah Ali)、丹妮拉·迪保拉(Daniella DiPaola)、艾琳·李(Irene Lee)、詹娜·洪(Jenna Hong)和辛西娅·布雷泽尔(Cynthia Breazeal)。2021.探索中学生的生成模式。2021年CHI计算机系统人为因素会议记录(日本横滨)(CHI'21)。美国纽约州纽约市计算机协会,第678条,13页。https://doi.org/10.1145/3411764.3445226
    [6]
    阿里·阿尔哈蒂布。2021.生活在他们的乌托邦:为什么算法系统会产生荒谬的结果。2021年CHI计算机系统人为因素会议记录(日本横滨)(CHI'21)。美国纽约州纽约市计算机协会,第95条,共9页。https://doi.org/10.1145/3411764.3445740
    [7]
    荒川理库、雅库拉弘木和后藤正太郎。2023.CatAlyst:使用大型生成模型预防任务拖延的领域扩展干预。《2023年CHI计算机系统人为因素会议论文集》(德国汉堡)(CHI'23)。美国纽约州纽约市计算机机械协会,第157条,19页。https://doi.org/10.1145/3544548.3581133
    [8]
    ARM |北极星。2017年,AI今日,AI明日。人工智能的认知和预测:全球视角。
    [9]
    ARM |北极星。2020年,今日人工智能,明天人工智能:2020年全球人工智能调查。
    [10]
    肯尼思C。Arnold、Krysta Chauncey和Krzysztof Z。加霍斯。2018年。预测性文本推荐中的情感偏见导致了偏见写作。第44届图形接口会议论文集。加拿大多伦多计算机协会,42-49。
    [11]
    肯尼思C。Arnold、Krysta Chauncey和Krzysztof Z。加霍斯。2020年。预测性文本鼓励预测性写作。第25届智能用户界面国际会议论文集(意大利卡利亚里)(IUI'20)。美国纽约州纽约市计算机协会,128-138。https://doi.org/10.1145/3377325.3377523
    [12]
    内达·阿塔纳索斯基和卡林迪·沃拉。2019年,《替代人类:种族、机器人和技术未来的政治》。杜克大学出版社,达勒姆和伦敦。
    [13]
    大卫H。汽车。2015年。为什么还有这么多工作?工作场所自动化的历史和未来。《经济展望杂志》29,3(2015),3–30。
    [14]
    Edmond Awad、Sydney Levine、Max Kleiman-Weiner、Sohan Dsouza、Joshua B。特伦鲍姆、阿齐姆·谢里夫、吉安·弗兰索瓦·博尼芬和伊亚德·拉旺。2020年。当两人都犯错误时,司机比他们的自动汽车更受指责。《自然-人类行为》4,2(2020),134-143。
    [15]
    Luye Bao,Nicole M。米哈伊拉·克劳斯。Calice,Dietram A。Christopher D.Scheufele。Wirz、Dominique Brossard、Todd P。Newman和Michael A。Xenos公司。2022.谁的AI?不同的公众如何看待人工智能及其社会影响。人类行为中的计算机130(2022),107182。
    [16]
    绍文·巴泽尔。2010年,女权主义者HCI:评估并概述设计议程。《SIGCHI计算机系统人为因素会议论文集》(美国佐治亚州亚特兰大)(CHI'10)。计算机械协会,美国纽约州纽约市,1301-1310。https://doi.org/10.1145/1753326.1753521
    [17]
    托马斯·巴拉比(Thomas Barrabi),2023年。DeepMind联合创始人警告称,人工智能将在就业市场创造“大量失败者”。《纽约邮报》。https://nypost.com/2023/05/10/ai-will-create-a-serious-number-of-losers-in-job-market-deepmind-co-founder-warns/
    [18]
    杰姆·巴托洛缪和德鲁米尔·梅塔。2023.人工智能商业。哥伦比亚新闻评论。https://www.cjr.org/tow_center/media-coverage-chatgpt.php
    [19]
    安娜·贝尼翁(Anaélle Beignon)、埃米琳·布鲁莱(Emeline Brulé)、珍妮·巴蒂斯特·约顿(Jean-Baptiste Joatton)和奥雷连·塔巴德(Aurélien Tabard)。2020年,诡异的设计探索:引发对服务设计中设计研究方法的反思。《2020年ACM交互式系统设计会议论文集》(荷兰埃因霍温)(DIS'20)。计算机协会,美国纽约州纽约市,1647-1660年。https://doi.org/10.1145/3357236.3395572
    [20]
    丹尼尔·贝尔。1976年,《后工业社会的到来:社会预测的冒险》。纽约州纽约市Basic Books出版社。
    [21]
    鲁哈·本杰明。2019.科技之后的竞赛:新吉姆准则的废除工具。英国剑桥Politiy和美国马萨诸塞州Medford。
    [22]
    Advait Bhat、Saaket Agashe、Parth Oberoi、Niharika Mohile、Ravi Jangir和Anirudha Joshi。2023.与下一句建议的互动:建议系统如何帮助和影响写作的认知过程。第28届智能用户界面国际会议论文集(澳大利亚新南威尔士州悉尼)(IUI’23)。美国纽约州纽约市计算机机械协会,436–452。https://doi.org/10.1145/3581641.3584060
    [23]
    梅兰妮·伯克斯(Melanie Birks)、伊桑·查普曼(Ysanne Chapman)和凯伦·弗朗西斯(Karen Francis)。2008.定性研究中的记忆:探索数据和过程。《护理研究杂志》13,1(2008),68–75。https://doi.org/10.1177/1744987107081254
    [24]
    布隆伯格资本。2019.2019年的人工智能:突破采用临界点。
    [25]
    Kirsten Boehner、Janet Vertesi、Phoebe Sengers和Paul Dourish。2007年,HCI如何解释探针。《SIGCHI计算机系统人为因素会议论文集》(美国加利福尼亚州圣何塞)(CHI'07)。美国纽约州纽约市计算机协会,1077-1086。https://doi.org/10.1145/1240624.1240789
    [26]
    玛格丽塔·博亚尔斯卡娅(Margarita Boyarskaya)、亚历山德拉·奥尔蒂努(Alexandra Olteanu)和凯特·克劳福德(Kate Crawford)。2020年,克服人工智能注入系统开发和部署中想象力的失败。arxiv:2011.3416[cs.CY]
    [27]
    弗吉尼亚·布劳恩和维多利亚·克拉克,2019年。反思反思性主题分析。《运动、锻炼与健康的定性研究》11,4(2019),589–597。https://doi.org/10.1080/2159676X.2019.1628806
    [28]
    弗吉尼亚·布劳恩和维多利亚·克拉克,2021年。一刀切?在(反身)主题分析中,什么是质量实践?心理学定性研究18,3(2021),328-352。https://doi.org/10.1080/14780887.2020.1769238
    [29]
    弗吉尼亚·布劳恩和维多利亚·克拉克,2022年。主题分析:实用指南。SAGE,加利福尼亚州千橡。
    [30]
    Kirsten E。克里斯蒂娜·哈林顿(Christina Harrington)、安德烈亚·布雷(Andrea G.Bray)。帕克、恩德耶·迪亚卡特和詹妮弗·罗伯茨。2022.激进的未来:通过非洲游客推测性设计工具包支持社区主导的设计参与。2022年CHI计算机系统人为因素会议论文集(美国洛杉矶新奥尔良)(CHI'22)。美国纽约州纽约市计算机协会,第452条,13页。https://doi.org/10.1145/3491102.3501945
    [31]
    菲利普A。E.布里。2012.新兴技术的预期道德。《纳米伦理学》6,1(2012),1-13。
    [32]
    Joseph Briggs和Devesh Kodnani。2023.人工智能对经济增长的潜在巨大影响。全球经济分析师。高盛。
    [33]
    汤姆·布朗(Tom Brown)、本杰明·曼(Benjamin Mann)、尼克·莱德(Nick Ryder)、梅兰妮·苏比亚赫(Melanie Subbiah)、贾里德·。卡普兰、普拉福拉·达里瓦尔、阿文德·内拉坎坦、普拉纳夫·希亚姆、吉里什·萨斯特里、阿曼达·阿斯克尔、桑迪尼·阿加瓦尔、阿里尔·赫伯特·沃斯、格雷琴·克鲁格、汤姆·海尼汉、瑞沃·查尔德、阿迪蒂亚·拉梅什、丹尼尔·齐格勒、杰弗里·吴、克莱门斯·温特、克里斯·黑塞、马克·陈、埃里克·西格勒、马特乌斯·利特温、斯科特·格雷、本杰明·切斯、杰克·克拉克、克里斯托弗·伯纳,Sam McCandlish、Alec Radford、Ilya Sutskever和Dario Amodei。2020年。语言模型是少数快速学习者。《神经信息处理系统进展》,H.Larochelle、M.Ranzato、R.Hadsell、M.F.Balcan和H.Lin(编辑)。第33卷。1877-1901年,加拿大温哥华Curran Associates公司。https://proceedings.neurips.cc/paper_files/paper/2020/file/1457c0d6bfcb4967418bfb8ac142f64a-paper.pdf
    [34]
    Erik Brynjolfsson、Danielle Li和Lindsey R。雷蒙德。2023.工作中的生成性人工智能。工作文件31161。国家经济研究局。https://doi.org/10.3386/w31161
    [35]
    Zana Buçinca、Maja Barbara Malaya和Krzysztof Z。加霍斯。2021.信任还是思考:认知强制功能可以减少AI辅助决策中对AI的过度依赖。《美国计算机学会人机交互会议录》5,CSCW1,第188条(2021年4月),21页。https://doi.org/10.1145/3449287
    [36]
    曼纽尔·卡斯特尔斯。2011年,《网络社会的崛起》。John Wiley&Sons,新泽西州霍博肯。
    [37]
    Benedetta Catanzariti、Srravya Chandhiramovuli、Suha Mohamed、Sarayu Natarajan、Shantanu Prabhat、Noopur Raval、Alex S。泰勒和丁旺。2021.人工智能和数据密集型系统的全球劳工。2021年计算机支持的合作工作和社会计算会议(美国虚拟活动)的配套出版物(CSCW’21 Companion)。美国纽约州纽约市计算机机械协会,319-322。https://doi.org/10.1145/3462204.3481725
    [38]
    斯蒂芬·凯夫(Stephen Cave)、凯特·考夫兰(Kate Coughlan)和坎塔·迪哈尔(Kanta Dihal)。2019.《可怕的机器人》:审查公众对人工智能的反应。2019年AAAI/ACM人工智能、道德和社会会议记录(美国夏威夷州火奴鲁鲁)(AIES’19)。美国纽约州纽约市计算机协会,331-337。https://doi.org/10.1145/3306618.3314232
    [39]
    诺姆·乔姆斯基(Noam Chomsky)。2023.意见嘉宾论文:ChatGPT的虚假承诺。《纽约时报》(2023年3月8日)。https://www.nytimes.com/2023/03/08/opinion/noam-chomsky-chatgpt-ai.html
    [40]
    Michael Chui、Eric Hazan、Roger Roberts、Alex Singla、Kate Smaje、Alex Sukharevsky、Lareina Yee和Rodney Zemmel。2023.生成性人工智能的经济潜力:下一个生产力前沿。麦肯锡公司(2023年6月14日)。https://www.mckinsey.com/capabilities/mckinsey-digital/our-insights/the-economic-ptential-of-generative-ai-the-next-productivity-frontier
    [41]
    John Joon Young Chung、Wooseok Kim、Kang Min Yoo、Hwaran Lee、Eytan Adar和Minsuk Chang。2022.TaleBrash:用生成预训练语言模型绘制故事。2022年CHI计算机系统人为因素会议论文集(美国洛杉矶新奥尔良)(CHI'22)。美国纽约州纽约市计算机协会,第209条,19页。https://doi.org/10.1145/3491102.3501819
    [42]
    伊丽莎白·克拉克(Elizabeth Clark)、安妮·斯宾塞·罗斯(Anne Spencer Ross)、陈浩(Chenhao Tan)、季阳峰(Yangfeng Ji)和诺亚·A。史密斯。2018年,《机器在回路中的创意写作:标语和故事案例研究》。第23届智能用户界面国际会议(日本东京)(IUI’18)。美国纽约州纽约市计算机协会,329-340。https://doi.org/10.1145/3172944.3172983
    [43]
    艾伦·柯林斯和理查德·哈尔弗森。2018年,重新思考技术时代的教育:美国的数字革命和学校教育。伦敦师范学院出版社。
    [44]
    Ned Cooper、Tiffanie Horne、Gillian R。海斯、考特尼·赫尔德雷思、米查尔·拉哈夫、杰斯·霍尔布鲁克和劳伦·威尔科克斯。2022.社区协作计算研究方法的系统回顾和主题分析。2022年CHI计算机系统人为因素会议论文集(美国洛杉矶新奥尔良)(CHI'22)。美国纽约州纽约市计算机协会,第73条,18页。https://doi.org/10.1145/3491102.3517716
    [45]
    加雷思·科菲尔德和马修·菲尔德。2022.认识ChatGPT,一个可怕的智能机器人,他能比你做得更好。《每日电讯报》(2022年12月6日)。
    [46]
    罗伯特·W·。考克斯。1987.生产、权力和世界秩序:创造历史的社会力量。第1卷。哥伦比亚大学出版社,纽约。
    [47]
    约翰·W·。克雷斯韦尔和谢丽尔·N。波什。2018年,《定性调查和研究设计:在五种方法中选择》(第四版)。Sage出版社,加利福尼亚州千橡园。
    [48]
    Rebecca Crootof,Margot E。Kaminski和W.Nicholson Price II。2023.循环中的人类。《范德比尔特法律评论》76(2023),429–510。
    [49]
    Hai Dang、Sven Goller、Florian Lehmann和Daniel Buschek。2023.选择胜于控制:用户如何使用Diegetic和Non-Digeetic提示使用大型语言模型写作。在2023年CHI计算机系统中的人为因素会议记录(德国汉堡)(CHI’23)中。美国纽约州纽约市计算机协会,第408条,17页。https://doi.org/10.1145/3544548.3580969
    [50]
    托马斯H。达文波特和尼汀·米塔尔。2022.《生成性人工智能如何改变创造性工作》,《哈佛商业评论》(2022年11月14日)。
    [51]
    理查德·李·戴维斯(Richard Lee Davis)、蒂埃莫·温斯甘斯(Thiemo Wambsganss)、魏江(Wei Jiang)、凯文·冈约普·金(Kevin Gonyop Kim)、坦尼娅·卡塞(Tanja Kasser)和皮埃尔·迪伦堡(Pi。打造未来:为设计空间探索释放深层生成模型的创造潜力。在2023年CHI计算机系统人为因素会议(德国汉堡)的扩展摘要中(CHI EA’23)。美国纽约州纽约市计算机协会,第136条,共9页。https://doi.org/10.1145/3544549.3585644
    [52]
    梅根·里莫尔·德利西(Meghan Rimol DeLisi)和凯瑟琳·霍利(Catherine Howley)。2023.Gartner将生成性人工智能置于新兴技术2023年Hype周期的通胀预期峰值。加特纳。https://www.gartner.com/en/newsroom/press-releases/2023-08-16-gartner-places-generative-ai-on-peak-of-inflated-expectations-on-2023-hype-cycle-for-emerging-technologies网站
    [53]
    Fabrizio Dell’Acqua、Edward McFowland、Ethan R。Mollick、Hila Lifshitz-Assaf、Katherine Kellogg、Saran Rajendran、Lisa Krayer、François Candelon和Karim R。拉哈尼。2023.在崎岖的技术前沿航行:人工智能对知识工人生产力和质量影响的现场实验证据。哈佛商学院技术与运营管理部工作文件24-013(2023)。https://doi.org/10.2139/ssrn.4573321
    [54]
    克劳迪奥·德尔埃拉和保罗·兰多尼。2014年。生活实验室:一种介于以用户为中心的设计和参与式设计之间的方法。创造力和创新管理23,2(2014),137–154。https://doi.org/10.1111/caim.12061
    [55]
    Alexey Dosovitskiy、Lucas Beyer、Alexander Kolesnikov、Dirk Weissenborn、Xiaohua Zhai、Thomas Unterthiner、Mostafa Deghani、Matthias Minderer、Georg Heigold、Sylvain Gelly、Jakob Uszkoreit和Neil Houlsby。2020年。一幅图像值16x16个单词:用于大规模图像识别的变形金刚。arxiv:2010.11929[cs.CV]
    [56]
    尼尔·杜尔和约阿希姆·梅耶。2020年,人类与自动化互动的责任量化模型。IEEE自动化科学与工程学报17,2(2020),1044–1060。https://doi.org/10.1109/TASE.202.2965466
    [57]
    里克·多夫。1998年,知识工作者。汽车制造与推广110,6(1998),26–28。
    [58]
    彼得·德鲁克。1959.明天的里程碑。海涅曼,纽约州纽约市。
    [59]
    彼得·F。德鲁克。1999.知识型员工生产力:最大的挑战。《加州管理评论》41,2(1999),79-94。https://doi.org/10.2307/41165987
    [60]
    埃德尔曼。2019年2019年爱德曼人工智能调查。
    [61]
    马德琳·克莱尔·埃利什。2019.道德揉搓区:人机交互中的警示故事。参与科学、技术和社会5(2019),40-60。
    [62]
    泰娜·埃卢杜(Tyna Eloundou)、萨姆·曼宁(Sam Manning)、帕梅拉·米什金(Pamela Mishkin)和丹尼尔·洛克(Daniel Rock)。2023.GPT是GPT:早期研究大型语言模型对劳动力市场的影响潜力。arxiv:2303.10130[经济GN]
    [63]
    英格丽德·埃里克森和穆罕默德·侯赛因·贾拉希。2016年,《基础设施和移动知识工作中动态接缝的挑战》,载于第19届ACM计算机支持的合作工作和社会计算会议记录(美国加利福尼亚州旧金山)(CSCW’16)。美国纽约州纽约市计算机协会,1323-1336年。https://doi.org/10.1145/2818048.2820015
    [64]
    Ed Felten、Manav Raj和Robert Seamans。2023.ChatGPT等语言建模者将如何影响职业和行业?arxiv:2303.01157[经济GN]
    [65]
    杰西卡·菲尔德、奈尔·阿奇顿、汉娜·希利戈斯、亚当·纳吉和马杜利卡·斯里库玛。2020年,《原则性人工智能:在道德和基于权利的方法中为人工智能原则绘制共识》,伯克曼·克莱恩中心研究出版物(2020年)。
    [66]
    莎拉·福克斯(Sarah Fox)、蕾切尔·罗斯·乌尔加多(Rachel Rose Ulgado)和丹妮拉·罗斯纳(Daniela Rosner)。2015年,《黑客文化,而非设备:女权主义黑客空间中的访问和认可》。《第18届ACM计算机支持合作工作与社会计算会议论文集》(加拿大不列颠哥伦比亚省温哥华)(CSCW’15)。美国纽约州纽约市计算机协会,56-68。https://doi.org/10.1145/2675133.2675223
    [67]
    萨拉·E·。福克斯、萨曼莎·肖利、埃丝特·Y。康(Kang)、多米尼克·蒙蒂尔·瓦莱(Dominique Montiel Valle)和埃斯特凡妮娅·罗德里格斯(Estefania Rodriguez)。2023.补丁:基本工作中人工智能集成的隐藏人工劳动。ACM人机交互会议记录7,CSCW1,第81条(2023年4月),20页。https://doi.org/10.1145/3579514
    [68]
    梅根·弗里茨和弗兰克·卡布雷拉。2021.人工智能招募算法和非人性化问题。《道德与信息技术》23(2021),791–801。
    [69]
    卡里·芬克(Cary Funk)、亚历克·泰森(Alec Tyson)、布莱恩·肯尼迪(Brian Kennedy)和考特尼·约翰逊(Courtney Johnson)。2020年,科学和科学家在全球公众中受到高度重视。皮尤研究中心(2020年9月)。
    [70]
    约翰·肯尼斯·加尔布雷思。2007年,新工业国。第9卷。普林斯顿大学出版社,新泽西州普林斯顿。
    [71]
    Bill Gaver、Tony Dunne和Elena Pacenti。1999.设计:文化探索。互动6,1(1999年1月),21–29。https://doi.org/10.1145/291224.291235
    [72]
    A.沙吉·乔治、A.S.霍文·乔治和A.S.加布里奥·马丁。2023.ChatGPT AI对多个业务部门的影响回顾。Partners Universal International Innovation Journal 1,1(2023年2月),9–23。https://doi.org/10.5281/zenodo.7644359
    [73]
    凯蒂·伊隆卡·杰罗(Katy Ilonka Gero)、陶龙(Tao Long)和莉迪亚·B。奇尔顿。2023.人工智能支持创意写作的社会动态。《2023年CHI计算机系统人为因素会议论文集》(德国汉堡)(CHI'23)。美国纽约州纽约市计算机协会,第245条,15页。https://doi.org/10.1145/3544548.3580782
    [74]
    马雷克·格尔斯(Mareike Glöss)、莫伊拉·麦克格雷戈(Moira McGregor)和巴里·布朗(Barry Brown)。2016.为劳动力设计:优步和随需应变的移动劳动力。2016年CHI计算机系统人为因素会议记录(美国加利福尼亚州圣何塞)(CHI'16)。计算机械协会,美国纽约州纽约市,1632-1643年。https://doi.org/10.1145/2858036.2858476
    [75]
    Ian Goodfellow、Jean Pouget Abadie、Mehdi Mirza、Bing Xu、David Warde Farley、Sherjil Ozair、Aaron Courville和Yoshua Bengio。2014.生成对抗网。《神经信息处理系统进展》,Z.Ghahramani、M.Welling、C.Cortes、N.Lawrence和K.Q.Weinberger(编辑)。第27卷。Curran Associates,Inc.,加拿大蒙特利尔。https://proceedings.neurips.cc/paper_files/paper/2014/file/5ca3e9b122f61f8f06494c97b1afccf3-paper.pdf
    [76]
    康纳·格雷厄姆(Connor Graham)和马克·朗斯菲尔德(Mark Rouncefield)。2008年,探索与参与。《2008年参与式设计十周年大会论文集》(印第安纳州布鲁明顿)(PDC’08)。美国印第安纳大学,194-197年。
    [77]
    本·格林。2022.需要人为监督政府算法的政策缺陷。《计算机法律与安全评论》45(2022),105681。https://doi.org/10.1016/j.clsr.2022.105681
    [78]
    Ben Green和Yiling Chen。2019.循环决策算法的原则和限制。ACM人机交互会议记录3,CSCW,第50条(2019),24页。https://doi.org/10.1145/3359152
    [79]
    Matthew Guzdial、Nicholas Liao、Jonathan Chen、Shao-Yu Chen、Shukan Shah、Vishwa Shah、Joshua Reno、Gillian Smith和Mark O。里德尔。2019.朋友、合作者、学生、经理:AI驱动游戏级编辑器的设计如何影响创作者。2019年CHI计算机系统人为因素会议记录(英国苏格兰格拉斯哥)(CHI'19)。美国纽约州纽约市计算机协会,1-13。https://doi.org/10.1145/3290605.3300854
    [80]
    苏珊·郝(Susan Hao)、皮尤什·库马尔(Piyush Kumar)、萨拉·拉兹洛(Sarah Laszlo)、希瓦尼·波达尔(Shivani Poddar)、巴克蒂普利亚·拉德哈拉普(Bhaktipriya Radharapu)和蕾妮·谢尔比。2023.生成模型中内容控制的安全性和公平性。arxiv:2306.06135[cs.LG]
    [81]
    克里斯蒂娜·N。哈灵顿、卡蒂亚·博尔戈斯·罗德里格斯和安妮·玛丽·派珀。2019.通过社区设计研讨会,让低收入非洲裔美国老年人参与健康讨论。2019年CHI计算机系统人为因素会议记录(英国苏格兰格拉斯哥)(CHI'19)。美国纽约州纽约市计算机协会,1-15。https://doi.org/10.1145/3290605.3300823
    [82]
    吉莉安·R。海耶斯。2011.行动研究与人机交互的关系。ACM《计算机与人类交互交易》第18、3条,第15条(2011年8月),20页。https://doi.org/10.1145/1993060.1993065
    [83]
    朱迪思·H。Heerwagen、Kevin Kampshroer、Kevin M。鲍威尔和维维安·洛夫内斯。2004.协作知识工作环境。《建筑研究与信息》32,6(2004),510-528。https://doi.org/10.1080/096132104123131305
    [84]
    斯图尔特遗产。2022.ChatGPT能帮我写书并喂我的孩子吗?《星期日泰晤士报》(2022年12月11日)。https://www.thetimes.co.uk/article/could-chatgpt-write-my-book-and-feed--my-kids-7972vx0xp
    [85]
    HLEG公司。2018年,虚假信息的多维处理:独立高级别小组关于虚假新闻和在线虚假信息的报告。https://data.europa.eu/doi/10.2759/739290
    [86]
    Han Hu、Quentin Jadoul和Angelika Reich。2021.银行如何在今天建立未来的员工队伍。麦肯锡公司(2021年8月17日)。https://ckinsey.com/industries/financial-services/our-insights/how-banks-can-build-their-future-workforce-to-day公司
    [87]
    安琪尔·辛奇·黄。2022.太晚了,无法创新?创新过程中的人工智能工具。2022年CHI计算机系统人为因素会议(美国路易斯安那州新奥尔良)的扩展摘要(CHI EA’22)。美国纽约州纽约市计算机协会,第38条,共9页。https://doi.org/10.1145/3491101.3503549
    [88]
    马修·兰托诺(Mathew Iantorno)、奥利维娅·多格特(Olivia Doggett)、普里扬克·钱德拉(Priyank Chandra)、朱莉·尤杰(Julie Yujie Chen)、罗斯玛丽·斯特普(Rosemary Steup)、努珀·拉瓦尔(Noopur Raval)、维拉·霍万斯卡娅(Vera Khovanskaya)、劳。2022.外包人工智能:应对自动化中的人为因素。2022年CHI计算机系统人为因素会议(美国路易斯安那州新奥尔良)的扩展摘要(CHI EA’22)。美国纽约州纽约市计算机协会,第103条,共5页。https://doi.org/10.1145/3491101.3503720
    [89]
    Nanna Inie、Jeanette Falk和Steve Tanimoto。2023.设计参与式人工智能:创造性专业人士对生成性人工智能的担忧和期望。2023年计算机系统人为因素会议(德国汉堡)(CHI EA’23)的扩展摘要。美国纽约州纽约市计算机协会,第82条,共8页。https://doi.org/10.1145/3544549.3585657
    [90]
    莉莉·C。Irani和M.Six Silberman。2016年,《我们讲述的关于劳工的故事:Turkopticon和“设计”的问题》。2016年CHI计算机系统人为因素会议记录(美国加利福尼亚州圣何塞)(CHI'16)。计算机械协会,美国纽约州纽约市,4573–4586。https://doi.org/10.1145/2858036.285858592
    [91]
    莫里斯·杰克什、阿德瓦特·巴特、丹尼尔·布舍克、利奥·扎尔马森和莫尔·纳曼。2023.与Opinionated语言模型共同写作会影响用户的观点。《2023年CHI计算机系统人为因素会议论文集》(德国汉堡)(CHI'23)。美国纽约州纽约市计算机协会,第111条,15页。https://doi.org/10.1145/3544548.3581196
    [92]
    布莱恩·D·。Janz,Jason A.詹兹。科尔奎特和雷蒙德·A。没有。1997.知识工作者团队效能:自主性、相互依赖性、团队发展和情境支持变量的作用。《人事心理学》50,4(1997),877-904。https://doi.org/10.1111/j.1744-6570/1997。tb01486.x
    [93]
    乔纳·贾皮(Jona Jaupi)。2023.你被替换了:我要被人工智能丢掉工作了——ChatGPT在几秒钟内完成了我一个小时的工作。《美国太阳报》(2023年1月24日)。https://www.the-sun.com/tech/7211994/lose-job-ai-chatgpt-work-hour-seconds网站/
    [94]
    拉文·杰苏塔桑。2023年,《突破生成性人工智能的流行周期》,《福布斯》(2023年8月19日)。https://www.forbes.com/sites/ravenjesuthasan/2023/08/19/cutt-through-the-hype-cycle-of-generative-ai
    [95]
    Bronwyn Jones、Ewa Luger和Rhianne Jones。2023.生成性人工智能与新闻:基于风险的快速审查。爱丁堡研究探索者。爱丁堡大学。
    [96]
    Bhautik Joshi。2023.人工智能会取代创意专业人士吗?互动30,5(2023年8月),24-29。https://doi.org/10.1145/3610529
    [97]
    Shivani Kapania、Oliver Siy、Gabe Clapper、Azhagu Meena SP和Nithia Sambasivan。2022.“因为人工智能是100%正确和安全的”:用户态度和印度人工智能权威的来源。2022年CHI计算机系统人为因素会议论文集(美国洛杉矶新奥尔良)(CHI'22)。ACM,美国纽约州纽约市,第158条,共18页。https://doi.org/10.1145/3491102.3517533
    [98]
    雅登·卡茨(Yarden Katz)。2020年,《人工白:人工智能中的政治和意识形态》。哥伦比亚大学出版社,纽约州纽约市。
    [99]
    Majeed Kazemitabaar、Justin Chow、Carl Ka To Ma、Barbara J。埃里克森、大卫·温特洛普和托维·格罗斯曼。2023.研究AI代码生成器对入门编程初学者的支持作用。《2023年CHI计算机系统人为因素会议论文集》(德国汉堡)(CHI'23)。美国纽约州纽约市计算机机械协会,第455条,23页。https://doi.org/10.1145/3544548.3580919
    [100]
    Patrick Gage Kelley、Celestina Cornejo、Lisa Hayes、Ellie Shuo Jin、Aaron Sedley、Kurt Thomas、Yongwei Yang和Allison Woodruff。2023.“当然,隐私将减少”:10个国家的人们预计人工智能将如何以及为什么影响未来的隐私。第十九届可用隐私和安全研讨会(SOUPS 2023)。USENIX协会,加利福尼亚州阿纳海姆,579-603。https://www.usenix.org/conference/soups2023/presentation/kelley
    [101]
    Patrick Gage Kelley、Yongwei Yang、Courtney Heldreth、Christopher Moessner、Aaron Sedley、Andreas Kramm、David T。纽曼和艾莉森·伍德拉夫。2021.令人兴奋、有用、担忧、未来主义:8个国家公众对人工智能的认知。《2021年AAAI/ACM人工智能、道德和社会会议记录》(美国虚拟事件)(AIES’21)。计算机械协会,美国纽约州纽约市,627-637。https://doi.org/10.1145/3461702.3462605
    [102]
    Patrick Gage Kelley、Yongwei Yang、Courtney Heldreth、Christopher Moessner、Aaron M。塞德利和艾莉森·伍德拉夫。2021年。“对这项技术潜力的惊讶和对可能存在的陷阱的担忧交织在一起”:15个国家的公众对人工智能的看法。IEEE计算机学会数据工程技术委员会公报44,4(2021),28-46。
    [103]
    迪德里克·P。Kingma和Max Welling。2013.自动编码可变贝叶斯。arxiv:1312.6114[统计ML]
    [104]
    K.Knill和S.Young。1997。语音和语言处理中的隐马尔可夫模型。施普林格荷兰,多德雷赫特,27-68。https://doi.org/10.1007/978-94-017-1183-8_2
    [105]
    亚历克斯·克利舍夫斯基(Alex Krizhevsky)、伊利亚·萨茨克弗(Ilya Sutskever)和杰弗里·欣顿(Geoffrey E Hinton)。2012.使用深度卷积神经网络进行ImageNet分类。《神经信息处理系统进展》,F.Pereira、C.J.Burges、L.Bottou和K.Q.Weinberger(编辑)。第25卷。Curran Associates,Inc.,美国内华达州塔霍湖。https://proceedings.neurips.cc/paper_files/paper/2012/file/c399862d3b9d6b76c8436e924a68c45b-paper.pdf
    [106]
    尼哈·库马尔(Neha Kumar)和纳维耶娜·卡鲁萨拉(Naveena Karusala)。2019.交叉计算。互动26,2(2019年2月),50-54。https://doi.org/10.1145/3305360
    [107]
    Constantin Lagios、Gaetane Caesens、Nathan Nguyen和Florence Stinglhamber。2021.解释组织非人性化的负面后果。《人事心理学杂志》21,2(2021),86-93。
    [108]
    本杰明·兰格(Benjamin Lange)、阿曼达·麦克罗斯克里(Amanda McCreskery)、本·泽文伯根(Ben Zevenbergen)、杰夫·基林(Geoff Keeling)、桑德拉·布拉斯科维奇(Sandra Blascovich)、凯尔·佩德森(Kyle Pedersen)、艾莉森·伦茨(Alison Le。2023.通过道德想象吸引谷歌团队:科技公司负责任创新和道德文化变革的自下而上方法。arxiv公司:2306.06901[加拿大康涅狄格州]
    [109]
    克里斯托弗A。Le Dantec和Sarah Fox。2015年,《站在门口的陌生人:获取通道、建立融洽关系和共同建设社区研究》。《第18届ACM计算机支持合作工作与社会计算会议论文集》(加拿大不列颠哥伦比亚省温哥华)(CSCW’15)。美国纽约州纽约市计算机协会,1348-1358年。https://doi.org/10.1145/2675133.2675147
    [110]
    迈克·刘易斯(Mike Lewis)、刘银汉(Yinhan Liu)、纳曼·戈亚尔(Naman Goyal)、马詹·加兹维尼尼亚德(Marjan Ghazvininejad)、阿卜杜勒拉赫曼·穆罕默德(Abdelrahman Mohamed)、奥马尔·利维(Omer Levy)、。2019.BART:用于自然语言生成、翻译和理解的去噪序列到序列预训练。arxiv:1910.13461[cs.CL]
    [111]
    安·莱特。2011年,HCI作为异端:身份识别技术和计算机交互查询。与计算机交互23,5(2011年9月),430-438。https://doi.org/10.1016/j.intcom.2011.02.002
    [112]
    刘泽、林宇通、曹岳、胡涵、魏一轩、张正、林士泰和郭白宁。2021.Swin transformer:使用移位窗口的分层视觉变换器。IEEE/CVF计算机视觉国际会议论文集(虚拟事件,美国)。10012–10022.
    [113]
    劳埃德注册基金会。2020年,《2019年世界风险民意调查报告》。
    [114]
    萨曼莎·洛克。2022.什么是AI聊天机器人现象ChatGPT?它能取代人类吗?《卫报》(2022年12月5日)。https://www.theguardian.com/technology/2022/dec/05/what-is-ai-chatbot-phenomenon-chatgpt-and-could-it-replace-humans
    [115]
    Ryan Louie、Andy Coenen、Cheng Zhi Huang、Michael Terry和Carrie J。蔡。2020年,通过AI指导工具为深度生成模型共同创作新AI音乐。《2020年CHI计算机系统人为因素会议论文集》(美国夏威夷州火奴鲁鲁)(CHI'20)。美国纽约州纽约市计算机协会,1-13。https://doi.org/10.1145/3313831.3376739
    [116]
    陆欣怡、范思敏、杰西卡·霍顿、王璐和王旭。2023.ReadingQuizMaker:一个支持讲师设计高质量阅读测验问题的人-NLP协作系统。《2023年CHI计算机系统人为因素会议论文集》(德国汉堡)(CHI'23)。美国纽约州纽约市计算机协会,第454条,18页。https://doi.org/10.1145/3544548.3580957
    [117]
    加里·马库斯。2019年,人工智能虚假信息泛滥。梯度(2019年11月30日)。https://theradient.pub/an-epidemic-of-ai-minformation(https://theradient.pub/an-epidemic-of-ai-minformation)/
    [118]
    伯纳德·马尔。2023.ChatGPT简史:我们如何到达今天的位置。《福布斯》(2023年5月19日)。https://www.forbes.com/sites/bernardmarr/2023/05/19/a-shorthistory-of-chatgpt-how-we-got-to-where-we-are-today/?sh=286b1544674f
    [119]
    爱丽丝·E。马威克和丽贝卡·刘易斯。2017.在线媒体操纵和信息披露。报告。数据与社会研究所。https://datasociety.net/library/media-manipulation-and-disinfo-online网站
    [120]
    凯德·梅茨。2023年,“AI教父”离开谷歌,并发出危险警告。《纽约时报》(2023年5月1日)。https://www.nytimes.com/2023/05/01/technology/ai-google-chatbot-engineer-quits-hinton.html
    [121]
    大卫·梅耶(David Meyer)。2023.人工智能对就业的威胁不是假设的——问问IBM的老板就知道了。雅虎财经。https://finance.yahoo.com/news/threat-jobs-not-hypothetical-just-173432317.html
    [122]
    Midtrivel,Inc.2022年。中途。https://www.middravel.com/
    [123]
    托马斯·米科洛夫(Tomas Mikolov)、马丁·卡拉菲亚特(Martin Karafiát)、卢卡斯·伯格(Lukas Burget)、扬·塞诺克(Jan Cernockỳ)和桑吉夫·库丹布尔(Sanjeev Khudanpur)。2010年。基于递归神经网络的语言模型。在Interspeech中。ICSA,日本千叶马库哈里,1045-1048。
    [124]
    文森特·莫斯科。2008年,世界知识工作者!联合?《沟通、文化与评论》1,1(2008年3月),105–115。https://doi.org/10.1111/j.1753-9137.2007.0011.x
    [125]
    Mozilla。2019.我们询问了世界各地的人们对人工智能的感受。以下是我们学到的。https://foundation.mozilla.org/en/blog/we-asked-powner-around-the-world-how-the-feel-about-artificial-intelligence-heres-what-we-learned/
    [126]
    利迪亚·迈克尔·穆勒。奇尔顿、安娜·坎托萨洛、查尔斯·帕特里克·马丁和格雷格·沃尔什。2022.GenAICHI:生殖人工智能和HCI。2022年CHI计算机系统人为因素会议(美国路易斯安那州新奥尔良)的扩展摘要(CHI EA’22)。美国纽约州纽约市计算机机械协会,第110条,7页。https://doi.org/10.1145/3491101.3503719
    [127]
    凯文·P·。墨菲。2022.概率机器学习:简介。麻省理工学院出版社,马萨诸塞州波士顿。
    [128]
    Lisa Maria Neudert、Aleksi Knuutila和Philip N。霍华德。2020.全球对人工智能、机器学习和自动决策的态度:将人工智能纳入公共服务和善治的影响。技术报告。牛津互联网研究所。
    [129]
    杰玛·纽兰(Gemma Newlands)。2021.小规模经济中的算法监控:通过Lefebvrian构想的空间组织工作。组织研究42,5(2021),719–737。
    [130]
    Andrew Ng.2017年。Andrew Ng:人工智能就是新电。斯坦福大学商学院。https://www.youtube.com/watch?v=21EiKfQYZXc
    [131]
    东北大学和盖洛普。2018年,乐观与焦虑:关于人工智能影响和高等教育应对措施的观点。
    [132]
    Shakked Noy和Whitney Zhang。2023.关于生成性人工智能生产力影响的实验证据。《科学》3816654(2023),187-192。https://doi.org/10.1126/science.adh2586
    [133]
    外科医生办公室。2023.我们孤独和孤立的流行:美国外科总医师关于社会联系和社区的治愈效果的咨询。https://www.hhs.gov/sites/default/files/surgon-general-social-connection-advisory.pdf
    [134]
    安吉拉·德·伊胡迪娅·芬达·奥格博纳亚·奥格布鲁(Angela D.Ihudiya Finda Ogbonnaya-Ogburu)。R.Smith、Alexandra To和Kentaro Toyama。2020年,HCI的关键种族理论。《2020年CHI计算机系统人为因素会议论文集》(美国夏威夷州火奴鲁鲁)(CHI'20)。美国纽约州纽约市计算机协会,1-16。https://doi.org/10.1145/3313831.3376392
    [135]
    霍丹·奥马尔。2023.关于生成性人工智能取代工作的说法是夸张和误导性的。https://datainnovation.org/2023/04/claims-about-generative-ai-replacing-are-hyperbolic-and-illization网站/
    [136]
    开放人工智能。2022.法典。https://openai.com/codex网站/
    [137]
    开放人工智能。2022年DALL-E 2。https://openai.com/dall-e-2
    [138]
    开放人工智能。2023.ChatGPT。https://chat.openai.com/
    [139]
    莫妮卡·佩尼克和克里斯托弗·朗。2019.日常设计的兴起:英国和美国的工艺美术运动。耶鲁大学出版社,康涅狄格州纽黑文。
    [140]
    Ritika Poddar、Rashmi Sinha、Mor Naaman和Maurice Jakesch。2023.AI写作助理影响自我陈述中的主题选择。在2023年CHI计算机系统人为因素会议(德国汉堡)的扩展摘要中(CHI EA’23)。美国纽约州纽约市计算机协会,第29条,共6页。https://doi.org/10.1145/3544549.3585893网址
    [141]
    Pasi Pyöriä。2005年,重新审视知识工作的概念。《知识管理杂志》9,3(2005),116-127。
    [142]
    李·雷尼、卡里·芬克、莫妮卡·安德森和亚历克·泰森。2022.人工智能与人性提升:美国人的开放性受到一系列担忧的影响。技术报告。皮尤研究中心。
    [143]
    Aditya Ramesh、Prafulla Dhariwal、Alex Nichol、Casey Chu和Mark Chen。2022.使用CLIP潜伏期的分层文本条件图像生成。arxiv公司:2204.06125[公司简历]
    [144]
    阿迪蒂亚·拉梅什(Aditya Ramesh)、米哈伊尔·巴甫洛夫(Mikhail Pavlov)、加布里埃尔·高(Gabriel Goh)、斯科特·格雷(Scott Gray)、切尔西·沃斯(Chelsea Voss)、亚历克·拉德福德(Alec Radford)、马克·陈。2021.零快照文本到图像生成。参加国际机器学习会议(美国虚拟活动)。PMLR,8821–8831。
    [145]
    尤兰达A。雅基塔·O·兰金。托马斯和尼科尔·M。约瑟夫。2020年,HCI的交叉性:迷失在翻译中。互动27,5(2020年9月),68–71。https://doi.org/10.1145/3416498
    [146]
    谷歌研究。2022.图像:文本到图像扩散模型。https://imagen.research.google。
    [147]
    道格拉斯A。雷诺兹。2009年,高斯混合模型。第741卷。德国柏林施普林格,659-663。
    [148]
    詹妮弗·A·。骑。2011年,女权主义HCI的理论议程。与计算机交互23,5(2011年9月),393-400。https://doi.org/10.1016/j.intcom.2011.04.005
    [149]
    梅利莎·罗梅勒和安德鲁·S。戈登。2015.创意帮助:故事写作助理。交互式故事讲述:第八届交互式数字故事讲述国际会议(ICIDS 2015)。施普林格,丹麦哥本哈根,81–92岁。
    [150]
    梅利莎·罗梅勒和安德鲁·S。戈登。2018年,使用RNN语言模型为创意写作提供自动化帮助。第23届智能用户界面国际会议论文集(日本东京)(IUI’18 Companion)。美国纽约州纽约市计算机协会,第21条,共2页。https://doi.org/10.1145/3180308.3180329
    [151]
    凯文·罗斯。2023.Bing的A.I.聊天:“我想活着”。《纽约时报》(2023年2月16日)。https://www.nytimes.com/2023/02/16/technology/bing-chatbot-transcript.html
    [152]
    Daniela K。Rosner、Saba Kawas、Wenqi Li、Nicole Tilly和Yi-Chen Sung。2016年,《不合时宜:设计研讨会作为一种研究方法的思考》。《第19届ACM计算机支持的合作工作和社会计算会议论文集》(美国加利福尼亚州旧金山)(CSCW’16)。计算机械协会,美国纽约州纽约市,1131-1141。https://doi.org/10.1145/2818048.2820021
    [153]
    Sandeep Sahai。2023.生成性人工智能:金融科技的大爆炸时刻。《福布斯》(2023年7月26日)。https://www.forbes.com/sites/forbestechcouncil/2023/07/26/generative-ai-a-big-bang-moment-for-fentech网站
    [154]
    萨米·萨萨(Sami Sarsa)、保罗·丹尼(Paul Denny)、阿尔托·海拉斯(Arto Hellas)和尤霍·莱诺宁(Juho Leinonen)。2022.使用大型语言模型自动生成编程练习和代码解释。2022年ACM国际计算机教育研究会议论文集-第1卷(瑞士卢加诺和虚拟事件)(ICER’22)。美国纽约州纽约市计算机协会,27-43。https://doi.org/10.1145/3501385.3543957
    [155]
    摩根·克劳斯·谢尔曼(Morgan Klaus Scheuerman),雅各布·M·。保罗和杰德·R。布鲁贝克。2019.计算机如何看待性别:商业面部分析服务中的性别分类评估。《美国计算机学会人机交互会议录3》,CSCW,第144条(2019年11月),33页。https://doi.org/10.1145/3359246
    [156]
    Ari Schlesinger、W.Keith Edwards和Rebecca E。磨光机。2017年,《跨部门HCI:通过性别、种族和阶级参与身份认同》。2017年CHI计算机系统人为因素会议记录(美国科罗拉多州丹佛)(CHI'17)。美国纽约州纽约市计算机协会,5412–5427。https://doi.org/10.1145/3025453.3025766
    [157]
    Ari Schlesinger,Kenton P。奥哈拉和亚历克斯·S。泰勒。2018年,《让我们谈谈种族:身份、聊天机器人和人工智能》,《2018年计算机系统人为因素会议论文集》(加拿大蒙特利尔)(CHI'18)。美国纽约州纽约市计算机协会,1-14。https://doi.org/10.1145/3173574.3173889
    [158]
    尼尔·塞尔温(Neil Selwyn)、比阿特丽斯·加洛·科尔多瓦(Beatriz Gallo Cordoba)、马克·安德烈耶维奇(Mark Andrejevic)和利斯·坎贝尔(Liz Campbell)。2020年,人工智能促进社会福利:澳大利亚公众对人工智能和社会的态度。技术报告。莫纳什数据期货研究所。
    [159]
    Graham Sewell和Laurent Taskin。2015年,在一个新的工作世界中眼不见心不烦?远程工作中的自治、控制和时空缩放。组织研究36,11(2015),1507-1529。
    [160]
    哈尼埃·沙克里(Hanieh Shakeri)、卡曼·纽斯塔特(Carman Neustaedter)和史蒂夫·迪保拉(Steve DiPaola)。2021.SAGA:与GPT-3合作讲故事。2021年计算机支持的合作工作和社会计算会议(虚拟活动,美国)的配套出版物(CSCW’21)。美国纽约州纽约市计算机协会,163-166。https://doi.org/10.1145/3462204.3481771
    [161]
    爱德华·H·。肖特利夫。1993.医生、患者和计算机:信息技术会破坏健康护理的交付吗?《美国哲学学会学报》137,3(1993),390-398。http://www.jstor.org/stable/986999
    [162]
    埃里克·西格尔。2023.AI Hype周期正在分散公司的注意力。哈佛商业评论。https://hbr.org/2023/06/the-ai-hype-cycle-is-discenting-companies网站
    [163]
    伊丽莎白·西姆伯格(Elisabeth Simbürger)和迈克·尼利(Mike Neary)。2016年。出租车教授:智利的学术劳动,对工人身份政治的一种关键的实际回应。工作场所:学术劳工杂志28(2016),48–73。https://doi.org/10.14288/workplace.v0i28.186212
    [164]
    Nikhil Singh、Guillermo Bernal、Daria Savchenko和Elena L。格拉斯曼。2022.藏匿被偷走的大象:利用多模态机器智能进行创造性写作的飞跃。《ACM计算机与人类交互交易》(2022年2月),1-53。https://doi.org/10.1145/3511599
    [165]
    亚伦·史密斯。2018.公众对计算机算法的态度。皮尤研究中心(2018年11月)。
    [166]
    杨松和斯特凡诺·埃蒙。2019.通过估计数据分布梯度进行生成性建模。《神经信息处理系统进展》,H.Wallach、H.Larochelle、A.Beygelzimer、F.d'Alché-Buc、E.Fox和R.Garnett(编辑)。第32卷。Curran Associates,Inc.,加拿大温哥华,1-13。https://proceedings.neurips.cc/paperfiles/paper/2019/file/001ef257407d5a371a96dcd947c7d93-paper.pdf
    [167]
    Katta Spiel、Os Keyes、Ashley Marie Walker和Michael A。DeVito、Jeremy Birnholtz、Emeline Brulé、Ann Light、Pínar Barlas、Jean Hardy、Alex Ahmed、Jennifer A。杰德·罗德。Brubaker和Gopinaath Kannabiran。2019.奎尔(英)HCI:在理论和实践中向前迈进。2019年CHI计算机系统人为因素会议(英国苏格兰格拉斯哥)的扩展摘要(CHI EA’19)。美国纽约州纽约市计算机协会,1-4。https://doi.org/10.1145/3290607.3311750
    [168]
    费比安·斯蒂芬尼。2021.一刀切:利用在线劳动力市场数据构建互补的数字再培训战略。大数据与社会8,1(2021),20539517211003120。https://doi.org/10.1177/20539517211003120
    [169]
    Minhyang(Mia)Suh、Emily Youngblom、Michael Terry和Carrie J。蔡。2021.人工智能作为社交粘合剂:揭示深层生成人工智能在社交音乐创作中的作用。2021年CHI计算机系统人为因素会议记录(日本横滨)(CHI'21)。美国纽约州纽约市计算机机械协会,第582条,11页。https://doi.org/10.1145/3411764.3445219
    [170]
    欧洲委员会。2017年,特别欧洲晴雨表460:对数字化和自动化对日常生活影响的态度。
    [171]
    罗马尔·托皮兰、丹尼尔·德·弗雷塔斯、杰米·霍尔、诺姆·沙泽尔、阿波罗夫·库尔什塔、亨泽成、艾丽西亚·金、泰勒·博斯、莱斯利·贝克、于都、李亚光、李洪瑞、怀秀·史蒂文·郑、阿明·加福瑞、马塞洛·梅内加利、黄延平、马克西姆·克里坤、德米特里·勒皮钦、詹姆斯·秦德豪、陈德豪、徐元忠、陈志峰、亚当·罗伯茨、,Maarten Bosma、Vincent Zhao、Yanqi Zhou、Chung-Ching Chang、Igor Krivokon、Will Rusch、Marc Pickett、Pranesh Srinivasan、Laichee Man、Kathleen Meier-Hellstern、Meredith Ringel Morris、Tulsee Doshi、Renelito Delos Santos、Toju Duke、Johnny Soraker、Ben Zevenbergen、Vinodkumar Prabhakaran、Mark Diaz、Ben Hutchinson、Kristen Olson、,Alejandra Molina、Erin Hoffman John、Josh Lee、Lora Aroyo、Ravi Rajakumar、Alena Butryna、Matthew Lamm、Viktoriya Kuzmina、Joe Fenton、Aaron Cohen、Rachel Bernstein、Ray Kurzweil、Blaise Agüera y Arcas、Claire Cui、Marian Croak、Ed Chi和Quoc Le。2022.LaMDA:对话应用程序的语言模型。arxiv:2201.08239[cs.CL]
    [172]
    萨里娜·蒂尔(Sarina Till)、杰登·法劳(Jaydon Farao)、托什卡·劳伦·科尔曼(Toshka Lauren Coleman)、隆迪韦·德博拉·山都(Londiwe Deborah Shandu)、努库鲁莱科·库兹瓦约(Nonkulleko Khuzwayo)、利夫胡瓦尼·穆塞洛(Livhuwani Muthelo)、马塞尼亚尼·乌帕·姆博比(Masenyani Oupa Mbombi)、马马尔·博涅(Mamare Bopane)、莫尔哈特赫迪(Mole。2022.跨地理位置和文化的基于社区的共同设计:南非共同设计研讨会的方法学教训。2022年参与式设计会议记录-第1卷(英国泰恩河畔纽卡斯尔)(PDC’22)。美国纽约州纽约市计算机协会,120-132。https://doi.org/10.1145/3536169.3537786
    [173]
    克里斯·瓦朗斯。2023.人工智能可以替代相当于3亿个工作岗位。BBC新闻(2023年3月28日)。https://www.bbc.com/news/technology-65102150
    [174]
    朱利安·瓦尔盖塞和朱利叶斯·查皮罗。2023.ChatGPT:生成性人工智能对科学和医疗的变革影响。《肝病杂志》(2023年8月)。https://doi.org/10.1016/j.jep.2023.07.028
    [175]
    Ashish Vaswani、Noam Shazeer、Niki Parmar、Jakob Uszkoreit、Llion Jones、Aidan N。戈麦斯(Gomez)、尤卡斯·凯泽(ukasz Kaiser)和伊利亚·波洛什金(Illia Polosukhin)。2017年。关注是你所需要的。《神经信息处理系统进展》,I.Guyon、U.Von Luxburg、S.Bengio、H.Wallach、R.Fergus、S.Vishwanathan和R.Garnett(编辑)。第30卷。Curran Associates,Inc.,美国加利福尼亚州长滩,1-11。https://proceedings.neurips.cc/paper_files/paper/2017/file/3f5ee243547dee91fbd053c1c4a845aa-paper.pdf
    [176]
    吉娜·维加和路易斯·布伦南。2000.隔离与技术:人类的隔离。《组织变革管理杂志》13,5(2000),468–481。
    [177]
    Mathias Peter Verheijden和Mathias Funk。2023.协作传播:促进与生成性人工智能的设计性协同创造。2023年CHI计算机系统人为因素会议(德国汉堡)的扩展摘要(CHI EA’23)。美国纽约州纽约市计算机协会,第73条,共8页。https://doi.org/10.1145/3544549.3585680
    [178]
    珍妮特A。Vertesi、Adam Goldstein、Diana Enriquez、Larry Liu和Katherine T。米勒。2020年,预自动化:Gig经济的内部化和自动化。《社会学》第14、3期(2020年1月),167-193页。https://doi.org/10.6092/issn.1971-8853/11657
    [179]
    Gerrit De Vynck。2023.现在每一家初创公司都是一家人工智能公司。泡沫恐惧正在加剧。《华盛顿邮报》(2023年8月5日)。https://www.washingtonpost.com/technology/2023/08/05/ai-hype-bubble-chatgpt网站/
    [180]
    本·瓦格纳。2019.有责任但无法控制?确保自动化决策系统中有意义的人力资源。政策与互联网11,1(2019),104–122。
    [181]
    贾斯汀·D·。Weisz、Michael Muller、Stephanie Houde、John Richards、Steven I。Ross、Fernando Martinez、Mayank Agarwal和Kartik Talamadupula。2021.不需要完善?代码翻译中的人机合作。第26届智能用户界面国际会议(美国德克萨斯州大学站)(IUI’21)。美国纽约州纽约市计算机协会,402-412。https://doi.org/10.1145/3397481.3450656
    [182]
    马特·威尔士。2022.编程的终结。Commun公司。ACM 66,1(2022年12月),34–35。https://doi.org/10.1145/3570220
    [183]
    艾蒂安·温格、理查德·麦克德莫特和威廉·M。斯奈德。2002.培养实践社区。哈佛商学院出版社,美国马萨诸塞州剑桥。
    [184]
    格温·怀特(Gwen White)、蒂利尼·阿里亚昌德拉(Thilini Ariyachandra)和大卫·怀特(David White)。2019年,《大数据、道德和社会影响理论——概念框架》,《管理与工程集成杂志》12,1(2019),9-15。
    [185]
    布莱安娜·维斯特。2018年,“永久平衡”是你随处可见的新的自营职业趋势。《福布斯》(2018年6月13日)。https://www.forbes.com/sites/briannawiest/2018/06/13/permalancing-is-the-new-self-employment-trend-youll-be-seeing-wherery/?sh=74d0a4dca383
    [186]
    丽贝卡·威利斯。2019.使用复合叙述来呈现采访结果。定性研究19,4(2019),471-480。https://doi.org/10.1177/1468794118787711
    [187]
    Marisol Wong-Villacres、Arkadeep Kumar、Aditya Vishwanath、Naveena Karusala、Betsy DiSalvo和Neha Kumar。2018年,十字路口设计。《2018年设计交互系统会议论文集》(中国香港)(DIS’18)。美国纽约州纽约市计算机协会,45-58。https://doi.org/10.1145/3196709.3196794
    [188]
    杨大进(Daijin Yang)、周燕鹏(Yanpeng Zhou)、张志远(Zhiyuan Zhang)、李家军(Toby Jia-Jun Li)和雷连卡佛(Ray LC.2022)。人工智能作为一个活跃的作家:人类人工智能协同小说写作中与生成文本的互动策略。ACM IUI研讨会联合会议记录,第10卷。CEUR-WS团队,计算机械协会,芬兰赫尔辛基,1-11。
    [189]
    YouGov公司。2021.《2021年国际技术报告:自动化与人工智能》。
    [190]
    安·袁(Ann Yuan)、安迪·科宁(Andy Coenen)、艾米丽·里夫(Emily Reif)和达芙妮·伊波利托(Daphne Ippolito)。2022.Wordcraft:使用大型语言模型编写故事。第27届智能用户界面国际会议(芬兰赫尔辛基)(IUI’22)。美国纽约州纽约市计算机机械协会,841–852。https://doi.org/10.1145/3490099.3511105
    [191]
    萨迪亚·扎希迪。2023.《2023年就业前景报告》。世界经济论坛(2023年4月30日)。https://www.weforum.org/reports/the-future-of-jobs-report-2023网址
    [192]
    张宝宝和阿兰·达福。2019.人工智能:美国的态度和趋势。可从SSRN 3312874(2019)获取。https://doi.org/10.2139/ssrn.3312874
    [193]
    郑成波,王大国,王毅,马晓娟,2022。从计算笔记本讲述故事:AI辅助演示幻灯片,用于演示数据科学工作。2022年CHI计算机系统人为因素会议记录(新奥尔良,洛杉矶,美国)(CHI'22)。美国纽约州纽约市计算机协会,第53条,20页。https://doi.org/10.1145/3491102.3517615

    索引术语

    1. 知识工人如何认为生成性人工智能将(不会)改变他们的行业

          建议

          评论

          信息和贡献者

          问询处

          发布于

          封面图片ACM会议
          CHI’24:CHI计算机系统人为因素会议记录
          2024年5月
          18961页
          国际标准图书编号:9798400703300
          内政部:10.1145/3613904
          如果复制品不是为了盈利或商业利益而制作或分发的,并且复制品的第一页载有本通知和完整引文,则允许免费制作本作品的部分或全部数字或硬拷贝以供个人或课堂使用。必须尊重本作品第三方组件的版权。对于所有其他用途,请联系所有者/作者。

          赞助商

          出版商

          计算机协会

          美国纽约州纽约市

          出版历史

          出版:2024年5月11日

          检查更新

          作者标记

          1. 生成人工智能
          2. 行业
          3. 知识工作

          限定符

          • 研究文章
          • 研究
          • 推荐有限公司

          数据可用性

          会议

          CHI'24:CHI计算机系统人为因素会议
          2024年5月11日至16日
          你好,美国檀香山

          接受率

          26314份提交文件的总体接受率为6199份,24%

          即将召开的会议

          24岁CHI PLAY
          游戏中的计算机与人类交互年度研讨会
          2024年10月14日至17日
          坦佩雷,芬兰

          贡献者

          其他指标

          文献计量学和引文

          文献计量学

          文章指标

          • 0
            引文总数
          • 1,291
            总下载次数
          • 下载量(最近12个月)1,291
          • 下载次数(最近6周)1,291

          其他指标

          引文

          视图选项

          查看选项

          PDF格式

          以PDF文件查看或下载。

          PDF格式

          电子阅读器

          使用联机查看电子阅读器.

          电子阅读器

          HTML格式格式

          在中查看本文HTML格式格式。

          HTML格式

          获取访问权限

          登录选项

          完全访问权限

          媒体

          数字

          其他

          桌子

          分享

          分享

          共享此出版物链接

          在社交媒体上分享