白宫科学技术政策办公室(OSTP)领导了一个为期一年的过程,从全国各地的人们那里寻求和提取投入——从受影响的社区到行业利益相关者,从技术开发人员到跨领域和部门的其他专家,以及整个联邦政府的政策制定者——在算法和数据驱动的危害和潜在补救措施问题上。通过小组讨论、公众聆听会议、私人会议、正式信息请求,以及对公众可访问和广泛宣传的电子邮件地址的输入,美国各地的人们都谈到了这些技术的承诺和潜在危害,并在制定AI权利法案蓝图方面发挥了核心作用。
为AI权利法案蓝图提供信息的小组讨论
OSTP与美国进步中心、政治与经济研究联合中心、新美国、德国马歇尔基金会、电子隐私信息中心和Mozilla基金会合作,共同主持了一系列六个小组的讨论。这些会议的目的是汇集各种专家、从业者、倡导者和联邦政府官员,就自动化系统的风险、危害、益处和政策机遇提供见解和分析,会议记录可在线公开。每次小组讨论都围绕一个广泛的主题组织,探讨当前的挑战和关切,并考虑尊重民主价值观的自动化社会应该是什么样子。这些讨论的重点是消费者权利和保护、刑事司法系统、平等机会和民事司法、人工智能和民主价值观、社会福利和发展以及医疗保健系统。
小组讨论摘要:
- 第1小组:消费者权利和保护。本次活动探讨了在人工智能消费产品、先进平台和服务、“物联网”设备以及智能城市产品和服务不断增长的生态系统背景下,个人消费者和社区面临的机遇和挑战。
主持人:Devin E.Willis,联邦贸易委员会消费者保护局隐私和身份保护司律师
小组成员:
- Tamika L.Butler,Tamika L Butler咨询公司负责人
- 詹妮弗·克拉克,俄亥俄州立大学诺尔顿工程学院教授兼城市和区域规划主管
- TechNet运营和战略计划高级副总裁Carl Holshouser
- Surya Mattu,Markup高级数据工程师和调查数据记者
- 玛丽亚·蒙哥马利,工作家庭伙伴关系全国运动主任
小组成员讨论了支持人工智能的系统的好处及其构建更好、更具创新性基础设施的潜力。他们个别指出,虽然人工智能技术可能是新的,但技术传播过程并非如此,关键是要在社区内进行深思熟虑和负责任的技术开发和整合。一些小组成员建议,研究技术传播在城市规划领域的作用,可以有助于技术的整合:从成功和失败中吸取的教训包括平衡所有权、使用权以及社区健康、安全和福利的重要性,以及确保更好地表达所有声音,尤其是那些传统上被技术进步边缘化的声音。一些小组成员还提出了权力结构的问题,举例说明了智慧城市项目中强烈的透明度要求如何帮助重塑权力,并为那些缺乏实现变革的财政或政治权力的人提供了更多发言权。
在讨论保护免受这些技术危害所需的技术和治理干预措施时,各小组成员强调需要透明度、数据收集以及灵活和反应性的政策制定,类似于如何不断更新和部署软件。一些小组成员指出,公司需要明确的指导方针,才能有一个一致的创新环境,原则和护栏是促进负责任创新的关键。
观看整个活动在这里.
- 小组2:刑事司法系统。这次活动探讨了刑事司法系统中当前和紧急使用技术的情况,并考虑了这些技术如何促进或破坏公共安全、正义和民主价值观。
主持人:Chiraag Bains,总统种族正义与公平问题副助理
小组成员: - 肖恩·马林诺夫斯基,芝加哥大学犯罪实验室警务创新与改革主任
- Kristian Lum,研究员
- 朱马纳·穆萨,全国刑事辩护律师协会第四修正案中心主任
- 斯坦利·安德里斯,执行主任,从监狱牢房到博士;霍华德大学医学院助理教授
- 迈亚沙·海耶斯,MediaJustice竞选策略总监
小组成员讨论了刑事司法系统内技术的使用,包括使用预测性警务、审前风险评估、自动车牌阅读器和监狱通信工具。讨论强调,社区应享有安全,需要确定实现安全的战略;这些策略可能包括数据驱动的方法,但重点应该放在安全上,技术可能是也可能不是实现安全的有效机制的一部分。各专题小组成员对这些系统的有效性、不利或无关数据导致不公正结果重复的倾向以及人们遵从潜在不准确的自动化系统的确认偏见和倾向表示关切。自始至终,许多小组成员个别强调,这些制度对个人和社区的影响可能很严重:这些制度缺乏个性化,违背了人们可以向好的方向改变的信念,制度的使用可能导致失去工作和儿童监护权,而监控会给社区带来寒意,并向社区成员发出负面信号,告知他们如何看待自己。
在讨论防范这些技术危害所需的技术和治理干预措施时,各小组成员强调,透明度很重要,但不足以实现问责制。一些小组成员讨论了他们对有效性的额外系统需求的个人观点,并同意咨询委员会和补偿社区投入在设计过程早期的重要性(在技术构建和实施之前)。多位小组成员还强调了监管的重要性,其中包括对此类技术的类型和成本的限制。
观看整个活动在这里.
- 小组3:平等机会和民事司法。本次活动探讨了影响就业、教育和住房机会公平的当前和新兴技术应用。
主持人:Jenny Yang,劳工部联邦合同合规项目办公室主任
小组成员:
- Christo Wilson,东北大学计算机科学副教授
- Frida Polli,Pymetrics首席执行官
- 卡伦·利维,康奈尔大学信息科学系助理教授
- Natasha Duarte,Upturn项目总监
- Elana Zeide,内布拉斯加州大学法学院助理教授
- 费比安·罗杰斯(Fabian Rogers),纽约州参议员贾巴里·布里斯波特(Jabari Brisport)办公室选区代言人,大西洋广场大厦租户协会社区代言人和楼层负责人
个别小组成员描述了人工智能系统和其他技术越来越多地被用于限制教育、住房和就业机会均等的方式。与教育相关的用途包括增加使用远程监督系统、学生位置和面部识别跟踪、教师评估系统、机器人教师等。与住房相关的用途,包括自动租户背景筛选和基于面部识别的控制,以进入或离开住房综合体。与就业相关的使用包括自动招聘筛选和工作场所监督中的歧视。各专题小组成员提出了现有隐私法的局限性,指出学生应该能够重塑自我,并要求学生记录和教育相关数据的隐私权。这些领域的监管首要关注点包括监管对学生言论的寒意影响、通过监管对租户的不当控制、,对工人的监督模糊了工作和生活的界限,对工人的生活施加了极端和潜在的破坏性控制。此外,一些小组成员指出,来自一种情况的数据在另一种情况下被误用,从而限制了人们的机会,例如,来自刑事司法环境的数据或以前的驱逐数据被用来阻止进一步获得住房。从头到尾,各小组成员强调,这些技术被用来将监督和效率的负担从雇主转移到工人、学校转移到学生、房东转移到租户,从而削弱和侵犯了机会平等;对这些技术的评估应包括它们是否真正有助于解决已确定的问题。
在讨论保护免受这些技术危害所需的技术和治理干预措施时,小组成员分别描述了以下方面的重要性:接受社区对技术设计和使用的投入,公开报告这些系统的关键要素,更好的通知和同意程序,确保基于上下文和用例的隐私,选择不使用这些系统的能力,接受人工流程的回退,解释决策和这些系统如何工作,治理的需要,包括使用这些系统方面的培训,确保技术用例真正与目标任务相关,并在本地验证其有效性,并且需要建立和保护第三方审计,以确保系统持续负责和有效。
观看整个活动在这里.
- 小组4:人工智能和民主价值本次活动探讨了技术设计中的挑战和机遇,这些技术有助于支持人工智能的民主愿景。其中包括讨论了设计非歧视性技术、可解释人工智能、强调社区参与的人机交互以及隐私意识设计的技术方面。
主持人:Kathy Pham,美国联邦贸易委员会产品和工程副首席技术官。
小组成员:
- Liz O'Sullivan,Parity AI首席执行官
- Timnit Gebru,独立学者
- Jennifer Wortman Vaughan,纽约市微软研究院高级首席研究员
- Pamela Wisniewski,中佛罗里达大学计算机科学副教授;社会技术互动研究(STIR)实验室主任
- Seny Kamara,布朗大学计算机科学副教授
每个小组成员都分别强调了在高风险环境中使用人工智能的风险,包括可能产生有偏见的数据和歧视性结果、不透明的决策过程以及公众对算法系统缺乏信任和理解。各小组成员为未来关键人工智能系统的设计提出了必要的干预措施和关键需求,包括持续的透明度、价值敏感和参与性设计、为相关利益相关者设计的解释以及公众咨询。不同的小组成员强调了信任人而非技术的重要性,以及与受影响社区接触以了解技术的潜在危害并通过设计在未来系统中建立保护的重要性。
观看整个活动在这里.
- 小组5:社会福利与发展。本次活动探讨了当前和新兴的技术应用,以实施或改进社会福利系统、社会发展计划和其他可能影响生活机会的系统。
主持人:米歇尔·埃弗莫尔,劳工部部长办公室失业保险现代化办公室政策副主任
小组成员:
- Blake Hall,首席执行官兼创始人,ID.me
- Karrie Karahalios,伊利诺伊大学厄巴纳-香槟分校计算机科学教授
- Christiaan van Veen,纽约大学法学院人权和全球正义中心数字福利国家和人权项目主任
- Julia Simon-Mishel,费城法律援助监督律师
- Zachary Mahafza博士,南方贫困法律中心研究和数据分析师
- J.Khadijah Abdurahman,加州大学洛杉矶分校C2I1和佤邦大学法学院AI Now研究所技术影响网络研究员
小组成员分别描述了技术在提供社会福利方面的应用范围不断扩大,包括欺诈检测、数字身份系统和其他注重提高效率和降低成本的方法。然而,各小组成员个别警告说,这些系统可能会增加使用和与这些技术互动的人的负担和能动性,从而减轻政府机构的负担。此外,这些系统可以产生反馈回路和复合危害,从社区收集数据并利用这些数据来加剧不平等。不同的小组成员建议,通过确保社区在设计过程开始时的投入,提供选择退出这些系统的方法,并使用相关的人力驱动机制,确保福利支付的及时性,可以减轻这些危害,并提供有关这些系统的使用的明确通知,以及对这些技术的使用方式和使用内容的明确解释。一些小组成员建议,应利用技术帮助人们获得利益,例如,通过向有需要的人提供利益,并确保自动化决策系统仅用于提供积极的结果;技术不应该被用来夺走需要支持的人的支持。
观看整个活动在这里.
- 小组6:医疗系统本次活动探讨了技术在医疗系统和与健康相关的消费品中的当前和新兴应用。
主持人:Micky Tripathi,美国卫生与公共服务部健康信息技术国家协调员。
小组成员:
- Mark Schneider,Christiana Care健康创新顾问
- Ziad Obermeyer,加州蓝十字会杰出副教授,加州大学伯克利公共卫生学院政策与管理
- 多萝西·罗伯茨(Dorothy Roberts)、乔治·A·维斯大学(George A.Weiss University)法律和社会学教授、雷蒙德·佩斯(Raymond Pace)和萨迪·坦纳·莫赛尔·亚历山大(Sadie Tanner Mossell Alexander)宾夕法尼亚大学民权学教授
- David Jones,A.Bernard Ackerman哈佛大学医学文化教授
- 贾米拉·麦切纳,康奈尔大学政府副教授;康奈尔健康公平中心联合主任
小组成员讨论了新技术对健康差距的影响;医疗服务获取、交付和结果;以及研究和决策成熟的领域。小组成员讨论了技术作为提供医疗保健的工具和提高医疗质量的工具的重要性。关于交付问题,各小组成员指出了一些关注点,包括宽带服务的使用和费用、与远程保健系统相关的隐私问题、与健康监测设备相关的费用,以及这如何加剧公平问题。关于技术增强型护理问题,一些小组成员广泛讨论了种族偏见和医学中种族的使用使伤害永久化并嵌入先前歧视的方式,以及确保医疗保健中使用的技术对相关利益攸关方负责的重要性。各小组成员强调了听取这些技术使用者的声音的重要性。
观看整个活动在这里.
附加约定摘要
- OSTP创建了一个电子邮件地址(ai-equity@ostp.eop.gov)就人工智能和其他数据驱动技术在生活中的使用征求公众意见。
- OSTP发布了关于生物特征技术使用和管理的信息请求(RFI)。[ii]本RFI的目的是了解过去、当前或计划使用的生物识别技术的范围和种类;使用这些技术的领域;使用它们的实体;管理其使用的现行原则、实践或政策;以及受到或可能受到其使用或监管影响的利益相关者。对本RFI的130份回复可在网上完整获取[iiii],并由以下列出的组织和个人提交:
- 哥伦比亚特区、伊利诺伊州、马里兰州、密歇根州、明尼苏达州、纽约州、北卡罗来纳州、俄勒冈州、佛蒙特州和华盛顿州总检察长
- 华盛顿大学无障碍技术和经验研究与教育中心,Devva Kasnitz,L Jean Camp,Jonathan Lazar,Harry Hochheiser
- 纽约大学法学院和天普大学法律、创新与技术研究所的数字福利国家与人权项目及人权与全球正义中心
- 詹妮弗·瓦格纳(Jennifer K.Wagner)、丹·伯杰(Dan Berger)、胡玛格丽特(Margaret Hu)和萨拉·卡萨尼斯(Sara Katsanis)
- Patrick A.Stewart、Jeffrey K.Mullins和Thomas J.Greitens
- 媒体艺术与文化联盟、麻省理工开放纪录片实验室和联合创作工作室以及Immerse
- 作为就RFI与利益相关者联系的额外努力,OSTP为公众成员举办了两次听证会。听力课总共吸引了300多名参与者。科学和技术政策研究所编制了RFI提交材料和听证会反馈的概要。[四]
- OSTP与私营部门和民间社会的各种利益相关者举行了会议。其中一些会议专门侧重于提供与AI权利法案蓝图制定相关的想法,而其他会议则提供了关于这些技术的积极用例、潜在危害和/或监督可能性的有用一般背景。私营部门和民间社会参与这些对话的人包括:
- 土砖
- 美国公民自由联盟(ACLU)
- 阿斯彭信息障碍委员会
- Awood中心
- 澳大利亚人权委员会
- 生物计量研究所
- 布鲁金斯学会
- BSA |软件联盟
- 坎特卢斯集团
- 美国进步中心
- 民主与技术中心
- 乔治敦法律隐私与技术中心
- Christiana护理
- 变化的颜色
- 同事
- 数据机器人
- 数据信任联盟
- 数据与社会研究所
- 深思熟虑
- EdSAFE AI联盟
- 电子隐私信息中心(EPIC)
- 编码正义
- 同等AI
- 谷歌
- 日立AI政策委员会
- 无辜者计划
- 电气与电子工程师协会(IEEE)
- Intuit公司
- 法律下的公民权利律师委员会
- 法律援助协会
- 公民与人权领导会议
- 元
- 微软
- 麻省理工学院人工智能政策论坛
- 运动联盟项目
- 全国刑事辩护律师协会
- O'Neil风险咨询与算法审计
- 人工智能伙伴关系
- Pinterest公司
- 纯文本组
- 化脓学
- 活力
- 安全行业协会
- 软件和信息产业协会(SIIA)
- 特殊竞争研究项目
- 荆棘
- 团结一致,相互尊重
- 加州大学伯克利分校柑橘政策实验室
- 加州大学伯克利分校劳动中心
- 未完成/项目自由
- 上升
- 美国商会
- 美国商会技术参与中心A.I.工作组
- Vibrent Health公司
- 仓库工人资源中心
- 路线图
[i] 白宫科技政策办公室。共同努力为自动化社会制定权利法案2021年11月10日。https://www.whitehouse.gov/ostp/news-updates/2021/11/10/join-the-effort-to-create-a-bill-of-rights-for-an-automated-society/
[二]白宫科技政策办公室。公共和私营部门使用生物识别技术信息请求通知2021年10月8日发布。https://www.federalregister.gov/documents/2021/10/08/2021-21975/notice-of-request-for-information-rfi-on-public-and-private-sector-uses-of-biometric-technologies
[iii]国家人工智能倡议办公室。公共和私营部门使用生物识别技术的公共投入。2022年4月19日访问。https://www.ai.gov/86-fr-56300-responses网站/
[iv]托马斯·奥什维斯基(Thomas D.Olszewski)、丽莎·范·帕伊(Lisa M.Van Pay)、哈维尔·F·奥尔蒂斯(Javier F.Ortiz)、莎拉·斯威尔斯(Sarah E.Swiersz)和劳里·达库斯(Laurie A.Dacus)。OSTP关于公共和私营部门生物识别技术使用和管理信息请求的回应概要。科学技术政策研究所。2022年3月。https://www.ida.org/-/media/feature/publications/s/sy/synopsis-of-responses-to-request-for-information-on-the-use-and-governance-of-biometric-technologies/ida-document-d-33070.ashx