美洲

  • 美国

亚洲

大洋洲

作者:Prasanth Aby Thomas

欧盟投诉对Meta利用个人数据进行人工智能的计划提出质疑

新闻
2024年6月6日4分钟
数据隐私生成性人工智能法规

投诉凸显了更广泛的隐私关注,并提出了模型用户或模型创建者是否负责遵守隐私规则的问题。

建筑外部的Meta标志
图片来源:Skorzewiak/Shutterstock

Meta正面临对隐私问题的重新审查,因为隐私倡导组织NOYB已在11个国家对该公司使用个人数据训练其人工智能模型的计划提出投诉。

NOYB呼吁欧盟10个成员国和挪威的国家监管机构立即对Meta采取行动,辩称将于6月26日生效的公司隐私政策变更将允许使用广泛的个人数据,包括帖子、私人图像和跟踪信息,培训其人工智能技术。

“不同于公司使用某些(公共)数据来训练特定AI系统(例如聊天机器人)这一已经存在问题的情况NOYB在一份声明中表示,Meta的新隐私政策基本上表示,该公司希望获取自2007年以来收集的所有公开和非公开用户数据,并将其用于当前和未来任何未定义类型的“人工智能技术”。

该组织补充道:“这包括许多“休眠”的脸书账户,用户几乎不再与之交互,但其中仍包含大量个人数据。”。

Meta上个月在给Facebook用户的一封电子邮件中宣布了这些更改,邀请他们选择退出这些更改。部分内容如下:, “Meta的AI是我们的生成性AI功能和经验的集合,例如Meta AI和AI创造性工具,以及为它们提供动力的模型……为了帮助您获得这些经验,我们现在将依赖称为合法利益的法律基础来使用您的信息开发和改进Meta的人工智能。这意味着您必须他有权反对如何将您的信息用于这些目的。如果你的反对意见被采纳,它将从那时起适用。”

对其他企业的潜在影响

该投诉再次突显出人们对隐私以及在开发人工智能模型时使用消费者数据的严重担忧。对于企业来说,这也提出了谁负责合规的问题。

Pareekh Consulting首席执行官Pareekh-Jain表示:“责任可能转移到提供模型的实体,而用户可能不承担责任。”。“使用其他公司的模型,如Meta或任何大型企业的模型,模型的创建者有责任明智地使用数据。用户通常不会面临法律问题。”

Jain补充道,如果实施更严格的隐私法,可能意味着只有较大的公司才能承担法律和隐私挑战,从而限制谁可以制作大型语言模型。较小的公司可能会发现合规成本过高。

企业还需要确保合同中的法律豁免权,比如OpenAI最初是如何为用户提供法律保障的。

Jain说:“随着更多人工智能模型的开发和更多组织的参与,在其运营中纳入法律保障至关重要。”。“这将法律责任转移到模型提供商身上。虽然这可能会减缓创新,但它确保了公司也有责任遵守法律,可能会限制较小的参与者进入市场。”

Cybermedia Research总裁托马斯·乔治(Thomas George)表示,企业将被迫对人工智能模型进行定期审计,以确保遵守数据保护法律。

乔治说:“在财务上,企业应该考虑留出准备金,以支付潜在的合规相关成本,减轻任何必要的人工智能模型突然修改的影响。”。“在运营方面,投资于技术团队的持续培训和开发,以跟上最新的合规要求,将在需要时对AI系统进行更灵活的调整。”

人工智能公司的用户数据难题

人工智能培训中个人数据的使用正成为欧盟内外的一个重要关注点。最近,松面齿隙在用户暴露了客户数据在人工智能模型中的使用方式后,强调用户需要选择退出。

OpenAI面临的挑战加利福尼亚州的一场联邦集体诉讼,指控其为培训目的不当使用个人信息。意大利数据保护局Garante也表示ChatGPT违规欧盟数据隐私标准。