跳到内容
人工智能

AI法案已经完成。以下是会(和不会)改变的

艰苦的工作现在开始了。

欧盟国旗黄色星圈下方带有ascii字符的蓝色四阶段风险评估金字塔
斯蒂芬妮·阿内特/MITTR

这个故事最初出现在我们关于人工智能的每周时事通讯《算法》中。要想在你的收件箱中首先看到这样的故事,在这里注册.

这是官方消息。三年后,上周,当欧洲议会投票通过《人工智能法案》时,欧盟新的全面人工智能法律《人工智能法案》跳过了最后一个官僚环节这个故事我去年写的。) 

这对我个人来说也是一个时代的终结:我是第一个获得2021年《人工智能法案》初稿独家新闻的记者,从那以后,我一直密切关注着随后的游说团。 

但现实是,艰苦的工作现在就开始了。该法律将于5月生效,到今年年底,居住在欧盟的人们将开始看到变化。监管机构需要建立起来,才能正确执行法律,而公司将需要长达三年的时间来遵守法律。

以下是将(和不会)改变的:

1.今年晚些时候,一些人工智能应用将被禁止

该法案对对人们的基本权利构成高风险的AI用例进行了限制,例如在医疗、教育和警务方面。这些将在年底前被取缔。 

它还禁止一些被认为构成“不可接受的风险”的使用。其中包括一些非常偏远且模糊的用例,例如部署“潜意识、操纵或欺骗性技术以扭曲行为和损害知情决策”或剥削弱势人群的人工智能系统。AI法案还禁止系统推断敏感特征,如某人的政治观点或性取向,以及在公共场所使用实时面部识别软件。面部识别数据库的创建抓取互联网a la Clearview AI也将被取缔。 

然而,有一些相当大的警告。执法机构仍被允许在公共场所使用敏感的生物特征数据以及面部识别软件,以打击恐怖主义或绑架等严重犯罪。一些民权组织,如数字权利组织立即访问,称AI法案是“人权的失败”,因为它没有彻底禁止有争议的AI使用案例,例如面部识别。虽然公司和学校不允许使用声称能够识别人们情绪的软件,但如果出于医疗或安全原因,他们可以使用。

2.当你与人工智能系统交互时,这将更加明显

科技公司将被要求标记深度伪造和人工智能生成的内容,并在人们与聊天机器人或其他人工智能系统交互时通知人们。《人工智能法案》还将要求公司开发人工智能生成的媒体,使其能够进行检测。这是打击错误信息的一条有希望的消息,将为研究提供参考水印而内容的出处大大提高了。 

然而,这说起来容易做起来难,研究远远落后于监管要求。水印仍然是一项实验性技术,很容易被篡改。它仍然是难以可靠地检测AI生成的内容。一些努力显示出希望,例如C2PA,一种开源互联网协议但要使起源技术可靠,并建立一个行业范围的标准,还需要做更多的工作。 

3.如果公民受到AI的伤害,他们可以投诉

AI法案将设立一个新的欧洲AI办公室,以协调合规、实施和执法(他们正在招聘). 由于《人工智能法案》,当欧盟公民怀疑自己受到了人工智能系统的伤害时,他们可以就人工智能系统提出投诉,并可以获得人工智能系统做出决定的原因解释。这是在日益自动化的世界中为人们提供更多代理权的重要第一步。然而,这将要求公民拥有适当水平的人工智能素养,并了解算法危害是如何发生的。对大多数人来说,这些仍然是非常陌生和抽象的概念。 

4.人工智能公司需要更加透明

大多数人工智能的使用都不需要遵守《人工智能法案》。只有AI公司在关键基础设施或医疗保健等“高风险”领域开发技术,在该法案三年后全面生效时,才会承担新的义务。这些包括更好的数据管理、确保人为监督和评估这些系统将如何影响人们的权利。

正在开发“通用人工智能模型”(如语言模型)的人工智能公司还需要创建并保存技术文档,以显示他们如何构建模型,如何尊重版权法,并公开发布用于训练人工智能模型的培训数据摘要。 

与目前的现状相比,这是一个巨大的变化,科技公司对进入其模型的数据保密,需要对人工智能领域混乱的数据管理实践

拥有最强大人工智能模型的公司,如GPT-4和Gemini,将面临更繁重的要求,例如必须进行模型评估、风险评估和缓解措施,确保网络安全保护,并报告人工智能系统发生故障的任何事件。不遵守规定的公司将面临巨额罚款,或者其产品可能被欧盟禁止。 

同样值得注意的是,免费开源人工智能模型共享了模型构建的每一个细节,包括模型的架构、参数和权重,因此可以免除《人工智能法案》的许多义务。


现在阅读算法的其余部分

更深入的学习

非洲监管人工智能的努力现在开始

人工智能的采用对非洲经济的预期好处是诱人的。据估计,如果尼日利亚、加纳、肯尼亚和南非的企业开始使用更多的人工智能工具,那么到2030年,仅尼日利亚、加纳和南非一国就可能获得高达1360亿美元的经济效益。现在,由55个成员国组成的非洲联盟正在努力研究如何开发和管理这项新兴技术。 

这并不容易:如果非洲国家不制定自己的监管框架来保护公民免受技术滥用,一些专家担心非洲人会在这一过程中受到伤害。但如果这些国家不找到利用人工智能优势的方法,其他国家担心他们的经济可能会落后。(阅读Abdullahi Tsanni的更多信息.) 

比特与字节

一个可以玩山羊模拟器的AI是朝着更有用的机器迈出的一步
谷歌DeepMind的一个新AI代理可以玩不同的游戏,包括它以前从未见过的游戏,例如山羊模拟器3,一款具有夸张物理特性的有趣动作游戏。这是朝着更通用的AI迈出的一步,它可以跨多个环境传递技能。(麻省理工学院技术评论

这家自驾创业公司正在使用生成人工智能预测交通量
Waabi表示,其新模型可以利用激光雷达数据预测行人、卡车和骑自行车的人如何移动。如果你向模型提示一种情况,比如司机鲁莽地高速驶入高速公路,它会预测周围的车辆将如何移动,然后在未来5到10秒生成激光雷达图像(麻省理工学院技术评论

由于人类的干预,LLM变得更加隐蔽地种族主义
很明显,像ChatGPT这样的大型语言模型吸收了数百万网页上的种族主义观点。开发者的反应是尽量减少其毒性。但新的研究表明,这些努力,尤其是随着模特越来越大,只会遏制公开的种族主义观点,同时让更多隐秘的刻板印象变得更强烈、更隐蔽。(麻省理工学院技术评论)

让我们不要在AI上犯与社交媒体相同的错误
Nathan E.Sanders和Bruce Schneier认为,社交媒体在过去十年中的无管制演变提供了许多直接适用于人工智能公司和技术的经验教训。(麻省理工学院技术评论

当被问及索拉的训练数据时,OpenAI的首席技术官Mira Murati表现不佳
在这次采访中《华尔街日报》这位记者问Murati,OpenAI的新一代视频人工智能系统Sora是否是根据YouTube上的视频训练的。穆拉蒂说,她不确定,这是一个令人尴尬的答案,一个应该真正知道的人。OpenAI因用于训练其他AI模型的数据而受到版权诉讼的打击,如果视频成为其下一个法律难题,我也不会感到惊讶。(《华尔街日报》

在AI末日预言者中
我真的很喜欢这首曲子。作家安德鲁·马兰茨(Andrew Marantz)与那些担心人工智能会给人类带来生存风险的人相处了一段时间,并试图掩饰自己。这个故事中的细节既有趣又有趣,并提出了当谈到AI的危害时我们应该听取谁的意见的问题。(《纽约客》

深度潜水

人工智能

大型语言模型可以做令人瞠目结舌的事情。但没有人确切地知道原因。

这是一个问题。找出它是我们这个时代最大的科学难题之一,也是控制更强大未来模型的关键一步。

生成性视频的下一步是什么

OpenAI的索拉提高了人工智能电影制作的门槛。在我们思考即将发生的事情时,需要记住四件事。

机器人即将拥有自己的ChatGPT时刻吗?

研究人员正在使用生成性人工智能和其他技术来教授机器人新技能,包括他们可以在家中执行的任务。

一家AI初创公司对我做了一个超现实的深度伪装,真是太好了,太可怕了

Synthesia的新技术令人印象深刻,但也提出了一个重大问题,即我们越来越无法分辨什么是真实的世界。

保持联系

Rose Wong插图

从获取最新更新
麻省理工学院技术评论

发现特别优惠、热门故事、,即将举办的活动等等。

感谢您提交电子邮件!

浏览更多新闻稿

看起来好像出了问题。

我们无法保存您的首选项。尝试刷新此页面并更新一个更多的时间。如果您继续收到此消息,联系我们customer-service@technologyreview.com带有您想要接收的通讯列表。