人工智能

GCRI利用风险分析、社会科学和我们从其他风险研究中获得的广泛知识,研究人工智能的开发和管理的人类过程。

人工智能现在对社会的许多方面都产生了重大影响,从长远来看,它有可能实现更大的变革。一个担忧是,未来的人工智能可能太过强大,人类无法控制,在这种情况下,可能无法阻止人工智能引发全球灾难。这激发了人们对确保人工智能安全和造福人类的兴趣。要做到这一点,需要技术设计解决方案以及社会和治理解决方案,以确保使用正确的技术。

GCRI主要在社会和治理方面工作,同时确保我们的工作对技术的细节敏感。人工智能在计算机科学领域有着悠久的历史,但它是一个相对较新的社会问题,因此有相当多的工作尚未完成。我们正在通过导入其他领域的见解并将其应用于人工智能的独特特性来帮助构建该领域。这项工作包括基础风险模型以及气候变化、核武器等方面的见解。

特色出版物

2020年道德、风险和政策人工通用智能项目调查

菲茨杰拉德、麦肯纳、亚伦·博迪和塞斯·鲍姆。全球灾难风险研究所技术报告20-12020

本技术报告详细调查了37个国家开发人工通用智能(AGI)的72个项目。本报告更新并改进了GCRI 2017人工通用智能项目综述2020年的调查发现了三个主要的AGI项目集群:(1)积极关注安全问题并声明其目标是造福人类的企业项目;(2) 在安全问题上不积极的学术项目,并声明其目标是提高知识;以及(3)在安全问题上不积极且目标不同的小型私营公司。

人工智能伦理学中非人类的道德思考

Owe,Andrea和Seth D.Baum,2021年。人工智能伦理学中对非人类的道德思考。人工智能与道德,卷。第1卷第4期(11月),第517-528页内政部10.1007/s43681-021-00065-0.ReadCube(读取多维数据集).

本文对非人类在人工智能伦理中的作用进行了基本分析。本文概述了关于非人的伦理理论,记录了人工智能伦理中对非人的关注状况,提出了对非人给予更多关注的论点,并讨论了对人工智能伦理的启示。

用于风险和决策分析的人工超智能灾难路径模型

安东尼·巴雷特(Anthony M.Barrett)和塞斯·鲍姆(Seth D.Baum)。实验与理论人工智能杂志2017年第29(2)期,第397-414页内政部10.1080/0952813X.2016.1186228

本文提出了一个详细的人工超智能风险模型。该模型涵盖了构建人工超智能及其灾难性行动所需的事件和条件。

其他出版物

塞斯·鲍姆。操纵总的社会价值观以偏向人工智能社会选择伦理.人工智能与道德,即将推出,内政部10.1007/s43681-024-00495-6.

塞斯·鲍姆(Seth D.Baum)和安德烈·奥韦(Andrea Owe),2023年从人类的人工智能到世界和宇宙的人工智能人工智能与社会,卷。38,第2期(4月),第679-680页,内政部10.1007/s00146-022-01402-5.ReadCube(读取多维数据集).

Owe,Andrea和Seth D.Baum,2021年人工智能的可持续性伦理在Philipp Wicke、Marta Ziosi、Joáo Miguel Cunha和Angelo Trotta(编辑),第一届人类人工智能国际会议论文集:走向可持续人工智能(CAIP 2021)博洛尼亚,第1-17页DOI 10.4108/eai.20-11-2021.2314105.

塞斯·鲍姆(Seth D.Baum)和安德烈·奥韦(Andrea Owe),2023年人工智能需要环境伦理道德、政策和环境,卷。26,编号1,第139-143页,内政部10.1080/21550085.2022.2076538.

维克多·加拉兹、米盖尔·森特诺、彼得·卡拉汉、阿马尔·卡塞维奇、塞尔·帕特森、伊琳娜·布拉斯、塞思·鲍姆、达里尔·法伯、乔恩·费舍尔、大卫·加西亚、蒂蒙·麦克费尔森、丹尼尔·希门尼斯、布莱恩·金、保罗·拉西和凯伦·利维,2021年人工智能、系统风险和可持续性.社会技术,体积。 67,(11月),第101741条DOI 10.1016/j.techsoc.2021.101741.

Cihon、Peter、Moritz J.Kleinaltenkamp、Jonas Schuett和Seth D.Baum,2021年。AI认证:通过减少信息不对称促进道德实践.IEEE技术与社会汇刊,卷。2,第4期(12月),第200-209页内政部10.1109/TTS.2021.3077595.

Peter Cihon、Jonas Schuett和Seth D.Baum,2021年。面向公众利益的人工智能公司治理.问询处,第12卷,第275条,内政部10.3390/info12070275.

Robert de Neufville和Seth D.Baum,2021年。人工智能集体行动:入门与综述.技术 社会,第66卷,(8月),第101649条内政部10.1016/j.techsoc.2021.101649.

Seth D.Baum,2020年。人工交叉学科:用于研究复杂社会问题的人工智能。 哲学与技术内政部10.1007/s13347-020-00416-5.ReadCube(读取多维数据集).

Seth D.Baum,2020年。中期人工智能与社会.问询处,第11卷,第6290号内政部10.3390/info11060290

Seth D.Baum、Robert de Neufville、Anthony M.Barrett和Gary Ackerman,即将出版。其他全球风险对人工智能的启示在Maurizio Tinnirello(编辑)中,人工智能的全球政治博卡拉顿:CRC出版社。

Seth D.Baum,2018年反超情报误报问询处,第9卷,第10号(9月),第244条,内政部10.3390/info9100244.

Seth D.Baum,2018年作为政治工具的超智能怀疑论问询处,第9卷,第9号(8月),第209条内政部10.3390/info9090209.

Seth D.Baum,2018年人工智能中的社会选择伦理人工智能与社会内政部10.1007/s00146-017-0760-1.

Seth D.Baum,2018年关注短期和长期人工智能的派系之间的和解人工智能与社会,第33卷,第4期(11月),内政部10.1007/s00146-017-0734-3.

Trevor N.White和Seth D.Baum,2017年当前和未来机器人技术的责任法在Patrick Lin、Keith Abney和Ryan Jenkins(编辑)中机器人道德2.0,牛津:牛津大学出版社,第66-79页。

Seth D.Baum,2017年。人工通用智能伦理、风险和政策项目调查全球灾难风险研究所工作文件17-1。

Seth D.Baum、Anthony M.Barrett和Roman V.Yampolskiy,2017年人工超智能专家分歧建模与解释Informatica公司,第41卷,第7期(12月),第419-428页。

Anthony M.Barrett和Seth D.Baum,2017年人工超智能研发过程的风险分析与风险管理在维克多·卡拉汉(Victor Callaghan)、詹姆斯·米勒(James Miller)、罗曼·扬波尔斯基(Roman Yampolskiy)和斯图亚特·阿姆斯特朗(Stuart Armstrong)(编辑)的作品中技术奇点:管理旅程柏林:施普林格出版社,第127-140页。