今天,由Amba Kak和Sarah Myers West博士(AI Now Institute)、Alex Hanna博士和Timnit Gebru博士(分布式人工智能研究所)、Maximilian Gahntz(Mozilla Foundation)、Zeerak Talat博士(独立研究员)和Mehtab Khan博士(耶鲁ISP)领导的人工智能专家和科学家发布了一份政策简报,辩称“通用人工智能”(GPAI)具有严重风险,根据即将出台的《欧盟人工智能法案》(EU AI Act),GPAI不能被豁免。50多个机构和个人签署了这些协议。

这份简报为欧盟监管机构提供了指导,因为他们准备在该法案中为解决人工智能危害设定监管基调。它认为:

  1. GPAI是一个扩展的类别。为了使欧盟AI法案经得起未来考验,它必须适用于一系列技术,而不是局限于聊天机器人/大型语言模型(LLM)。欧盟理事会在三段式谈判的一般方法中使用的定义提供了一个很好的模式。
  2. GPAI模型具有固有的风险,并造成了广泛的危害。虽然这些风险可以转移到广泛的下游参与者和应用程序,但无法在应用程序层有效缓解这些风险。 
  3. GPAI必须在整个产品周期中进行监管,而不仅仅是在应用层,以便考虑到所涉及的利益相关者的范围。最初的开发阶段至关重要,开发这些模型的公司必须对他们使用的数据和做出的设计选择负责。在开发层没有监管的情况下,人工智能供应链的当前结构有效地使开发这些模型的参与者能够从遥远的下游应用程序中获利,同时规避任何相应的责任。
  4. GPAI的开发人员不应该使用标准的法律免责声明放弃责任。这种方法创造了一个危险的漏洞,使GPAI的原始开发人员(通常是资源充足的大公司)摆脱了困境,而将全部责任交给缺乏资源、访问权限和减轻所有风险能力的下游参与者。 

监管部门应避免认可狭义的GPAI评估和审查方法,因为这可能会导致表面的检查。这是一个活跃且竞争激烈的研究领域,应进行广泛协商,包括与民间社会、研究人员和其他非行业参与者进行协商。标准化的文档实践和其他方法来评估GPAI模型,特别是生成型人工智能模型,涵盖多种危害,是一个活跃的研究领域。监管部门应避免认可狭义的评估和审查方法,以防止这种做法导致表面的检查。

您可以阅读以下完整的简介和签名: