“人工智能和数字政策中心 旨在促进一个更美好、更公平、, 更多只是-
技术促进的世界基于基本权利、民主制度和法治的广泛社会包容。"
CAIDP发布AI和民主价值指数——AI政策和实践的综合评级和排名环游世界d日
(2024年4月4日)
紧急行动-AI和数字政策寻求中心欧洲委员会AI条约谈判支持公民宣言. (2024年1月23日)
参考: ”欧盟准备反击私营部门脱离国际人工智能条约,”欧拉乔夫102024年1月
欧盟AI法案最终达成协议,AI立法全面通过(2023年12月7日)
[议会新闻稿]
[理事会新闻释放]
CAIDP全球项目主任卡琳·考恩斯敦促AI委员会维护欧洲委员会的使命,并在全球AI条约。[CAIDP参考页]
CAIDP向参议院司法委员会发表的关于美国AI法案的声明
(2023年9月11日)
[美国AI法案摘要]
CAIDP文件向FTC投诉Zoom使用ML和AI技术(2023年8月31日)
[背景]
[致联邦贸易委员会的信函]
[投诉]
[新闻稿]
CAIDP向拜登总统科学顾问发表的关于生成性人工智能 (PCAST)(2023年8月3日)
提前听证会、CAIDP和Encode Justice就监管原则向美国参议院提供建议第页,共页(2023年7月21日)
[人工智能通用指南]
CAIDP投诉后,联邦贸易委员会宣布调查开放人工智能(2023年7月13日)
[FTC需求函]
新闻-CAIDP更新OpenAI投诉,敦促FTC采取行动(2023年7月10日)
CAIDP就国家人工智能战略向OSTP发表的声明(7月7日,2023)
CAIDP,民间社会团体敦促就全球AI条约采取行动(2023年7月4日)
CAIDP就AI政策向巴基斯坦提供建议(6月30日,2023)
路透社-“拜登看到了人工智能的危险,说科技公司必须确保产品安全的”(2023年4月4日)
-----------------------
“在我看来,科技公司有责任确保其产品在公开之前是安全的,”他在总统顾问委员会关于科学与技术(PCAST)。当被问及人工智能是否危险时,他说:“这还有待观察。有可能。”
CAIDP向美国联邦贸易委员会投诉——敦促调查OpenAI——呼吁在护栏建立之前暂停未来发布GPT——以下声明来自AI专家呼吁暂停大型语言模型(2023年3月30日)
CAIDP的Merve Hickok在大会上就AI政策作证
“人工智能的进步:我们准备好迎接技术革命了吗?”
众议院监督委员会
美国东部时间2023年3月8日下午2:00
[CAIDP证词]
[CAIDP对国家AI咨询委员会的建议]
[更多信息]
[实时流]
CAIDP就美国国家人工智能战略向国家人工智能咨询委员会发布声明,(2023年3月3日)。
Merve Hickok、Marc Rotenberg、Karine Caunes、,
欧洲委员会为AI政策创造了一个黑箱(2023年1月24日)
欧洲委员会人工智能委员会(Council of Europe Committee on AI)做出了一项令人震惊的决定,将在未来闭门制定人工智能国际公约的工作进行下去,尽管理事会在2020年的一项决议中呼吁人工智能的民主治理。这是一个处于最前沿的国际组织的一个令人惊讶的举动以提高正在改变世界的技术的透明度和问责制。
继续阅读>>
人工智能和民主价值观
(CAIDP 2023)
基本权利机构测试算法以避免歧视(2022年12月8日)
AEPD/EDPS,关于机器学习的10个误解(2022年9月)
利雅得AI行动呼吁宣言(2022年9月)
联合国教科文组织关于人工智能道德的建议(2021).
人工智能与民主价值, 土耳其政策每季度(21月22日冬季),由Ramos、Nemitz、Timmers、Sourdin、Hickok/Rotenberg和其他人贡献
欧洲法律学会算法决策影响评估的模型规则公共行政部门使用的系统(2022)
人工智能法律框架要素(2022年2月16日)
[CAIDP对COE的评论]
欧盟AI法案-总统妥协文本(1月。13, 2022)
CAIDP的Merve Hickok陈述人工智能美国国会政策,2023年3月8日-“美国没有护栏、我们需要的法律、公共教育或政府的专业知识来管理这些快速技术变革的后果。” 【CAIDP-AI进展听证会】
CAIDP对参议院外交关系委员会“战略竞争时代美国在人工智能领域的领导地位”(2023年11月15日)
CAIDP向参议院HELP委员会发表的关于“避免警告:医疗保健中人工智能的政策考虑”的声明(2023年11月8日)
CAIDP对众议院的声明“深水技术进步”监督委员会(2023年11月7日)
CAIDP对众议院科学委员会的声明人工智能与风险管理(2023年10月18日)
民间社会组织关于欧洲委员会的声明关于A的公约我(2023年1月28日)。
CAIDP关于将民间社会组织排除在欧洲委员会人工智能委员会起草小组(2023年1月17日)
CAIDP向支持AI权利法案的科学技术政策办公室发表的声明(5月18, 2022)
[开放供个人和组织登录]
[CAIDP《信息自由法案》向OSTP请求AI法案权利]
[OSTP响应(6-28-22)]
[CAIDP上诉(6-30-22)]
2022年5月26日,CAIDP会见欧洲议会LIBE委员会代表团,华盛顿特区
2021年11月10日,CAIDP主办人工智能和民主价值会议
CAIDP与前白宫顾问的对话 波德斯塔2021年11月4日
CAIDP与欧洲议会AIDA委员会2021年11月4日,华盛顿特区
马克·罗滕伯格,人工智能监督(回应Ian Bremmer和Mustafa Suleyman的“人工智能力量悖论”),外交事务(2023年11月至12月)
默夫·希科克洛伦·基塞尔伯格,以及马克·罗滕伯格A.I.的危险,以及其发展限制, 《纽约时报》(2023年7月24日)
马克·罗滕伯格(Marc Rotenberg)和默夫·希科克(Merve Hickok),监管A.I.:美国需要采取行动, 《纽约时报》(2023年3月6日)
马克·罗滕伯格,前言:人工智能与民主价值观:数据保护的作用, 欧洲数据保护法律审查(2021年冬季)
人工智能与伽利略望远镜
审查人工智能时代作者:亨利·基辛格、埃里克·施密特和道格拉斯·哈特纳
科学技术问题
马克·罗滕伯格
人工智能的下一步权利法案,《华盛顿观察家》(Washington Spectator)洛伦·基塞尔伯格(Lorraine Kisselburgh)和马克·罗滕伯格(Marc Rotenberg)(2021年11月)
TheAI政策源手册是AI政策的第一个概要,为决策者、研究人员、记者和公众提供了重要信息。已编辑马克·罗滕伯格人工智能政策来源k包括全球人工智能框架,如经合组织人工智能原则和人工智能通用指南. The原始资料手册还包括来自欧盟和欧洲委员会的材料、国家人工智能倡议以及专业协会的建议,包括ACM和IEEE。
马克·罗滕伯格,“Schrems II,从斯诺登到中国:实现跨大西洋数据的新结盟保护,“ 欧洲法律杂志(2020年9月)
CAIDP建议A伦理学家书店,由提供动力主题包括:人工智能伦理、偏见和社会正义;人工智能和数据的上下文-偏见/权力/不公正;和Dystopian Futures。
这里推荐的书籍涵盖了人工智能道德、大数据和社会影响、有偏见的算法、隐私、缺乏监管或自动化决策道德等主题。
也有一些书提供了导致这些领域(以及数据)历史上不平等的原因,以及社会和结构不公正的根源这些领域,比如治安、大规模监禁、福利、住房、金融市场、通信等等。
克什米尔山,你的脸不是你自己的:当一家秘密的初创公司通过互联网建立面部识别工具,它测试了一个法律和道德限制,并彻底摧毁了美国隐私的未来《纽约时报》,(2021年3月21日)。
Karen Hao即将到来的针对陷于贫困的隐藏算法的战争,麻省理工学院技术评论(2020年12月4日)
加布里埃拉·赞菲尔·福图纳A-Levels和IB算法灾难显示数据为何保护应与隐私不同,The Medium(2020年10月13日)
中国监测国走向全球,《大西洋》(2020年9月)。
-人工智能和数字政策中心
“美国必须与其他民主国家合作,确定红线人工智能。并确保A.I.系统的公平性、问责制和透明度已部署。技术变革的速度是加速。寻求保护的国家基本权利必须在为时已晚之前行动起来。”
-人工智能之战(《纽约时报》2019)
“算法问责制是一个复杂的话题,但它的影响广泛影响着美国的生活,从就业、信贷到住房和刑事司法。”
-计算机偏差(新建《约克时报》 2016)
“自动化决策的这个关键问题是现代数据保护法的核心,确保决策的公平和透明影响个人。”
-计算机隐私和数据保护(布鲁塞尔2017)
“民主国家应建立算法透明度,以确保数字世界的公平性和问责制。”
-经合组织全球论坛(2014年东京)
“我想强调,今天推进一个项目,建立算法透明性和一套框架原则,对于保护个人利益的人工智能的部署。”
-AI世界学会(剑桥2018)
“随着决策的自动化,流程变得更加不透明,不那么负责……在法律和技术的交叉点,算法知识是一项基本权利对”
- 教科文组织知识咖啡馆(巴黎,2015年)
“美国需要全面的隐私立法来保护美国人的个人数据。我们还必须成立一个机构,负责倡导美国。监控技术很快就站稳了脚跟。时间不多了。”
-中国的监测:对美国人的影响(《纽约时报》2019)