投诉凸显了更广泛的隐私关注,并提出了模型用户或模型创建者是否负责遵守隐私规则的问题。 图片来源:Skorzewiak/Shutterstock Meta正面临对隐私问题的重新审查,因为隐私倡导组织NOYB已在11个国家对该公司使用个人数据训练其人工智能模型的计划提出投诉。 NOYB呼吁欧盟10个成员国和挪威的国家监管机构立即对Meta采取行动,辩称将于6月26日生效的公司隐私政策变更将允许使用广泛的个人数据,包括帖子、私人图像和跟踪信息,培训其人工智能技术。 “不同于公司使用某些(公共)数据来训练特定AI系统(例如聊天机器人)这一已经存在问题的情况NOYB在一份声明中表示,Meta的新隐私政策基本上表示,该公司希望获取自2007年以来收集的所有公开和非公开用户数据,并将其用于当前和未来任何未定义类型的“人工智能技术”。 该组织补充道:“这包括许多“休眠”的脸书账户,用户几乎不再与之交互,但其中仍包含大量个人数据。”。 Meta上个月在给Facebook用户的一封电子邮件中宣布了这些更改,邀请他们选择退出这些更改。部分内容如下:, “Meta的AI是我们的生成性AI功能和经验的集合,例如Meta AI和AI创造性工具,以及为它们提供动力的模型……为了帮助您获得这些经验,我们现在将依赖称为合法利益的法律基础来使用您的信息开发和改进Meta的人工智能。这意味着您必须他有权反对如何将您的信息用于这些目的。如果你的反对意见被采纳,它将从那时起适用。” 对其他企业的潜在影响 该投诉再次突显出人们对隐私以及在开发人工智能模型时使用消费者数据的严重担忧。对于企业来说,这也提出了谁负责合规的问题。 Pareekh Consulting首席执行官Pareekh-Jain表示:“责任可能转移到提供模型的实体,而用户可能不承担责任。”。“使用其他公司的模型,如Meta或任何大型企业的模型,模型的创建者有责任明智地使用数据。用户通常不会面临法律问题。” Jain补充道,如果实施更严格的隐私法,可能意味着只有较大的公司才能承担法律和隐私挑战,从而限制谁可以制作大型语言模型。较小的公司可能会发现合规成本过高。 企业还需要确保合同中的法律豁免权,比如OpenAI最初是如何为用户提供法律保障的。 Jain说:“随着更多人工智能模型的开发和更多组织的参与,在其运营中纳入法律保障至关重要。”。“这将法律责任转移到模型提供商身上。虽然这可能会减缓创新,但它确保了公司也有责任遵守法律,可能会限制较小的参与者进入市场。” Cybermedia Research总裁托马斯·乔治(Thomas George)表示,企业将被迫对人工智能模型进行定期审计,以确保遵守数据保护法律。 乔治说:“在财务上,企业应该考虑留出准备金,以支付潜在的合规相关成本,减轻任何必要的人工智能模型突然修改的影响。”。“在运营方面,投资于技术团队的持续培训和开发,以跟上最新的合规要求,将在需要时对AI系统进行更灵活的调整。” 人工智能公司的用户数据难题 人工智能培训中个人数据的使用正成为欧盟内外的一个重要关注点。最近,松面齿隙在用户暴露了客户数据在人工智能模型中的使用方式后,强调用户需要选择退出。 OpenAI面临的挑战加利福尼亚州的一场联邦集体诉讼,指控其为培训目的不当使用个人信息。意大利数据保护局Garante也表示ChatGPT违规欧盟数据隐私标准。 相关内容 新闻 认识MathPrompt,一种威胁行为体可以打破AI安全控制的方法 研究人员表示,通过代数方程而不是简单的语言发出恶意请求可以愚弄genAI保护免受滥用。 霍华德·所罗门 2024年9月23日 5分钟 生成性人工智能 漏洞 意见 潜在的安全漏洞会破坏微软的Copilot吗? 研究人员和分析人员警告说,该公司的生成性人工智能助手存在各种安全问题,尤其是对于使用Microsoft 365的企业。 作者:Preston Gralla 2024年9月17日 6分钟 生成性人工智能 数据和信息安全 新闻 Netcraft报告称,LLM正在推动一场“genAI犯罪革命” 随着威胁行为体越来越多地采用这项技术,预计AI生成文本的网站将继续激增。他们也在使用LLM进行SEO,以帮助他们在搜索页面上排名靠前。 作者:Lynn Greiner 2024年8月30日 5分钟 网络钓鱼 黑客攻击 生成性人工智能 特征 监管者希望在AI代网络安全之战中击败罪犯 成功的真正决定因素将是双方在当前的网络安全军备竞赛中如何利用这一强有力的工具来超越对方。 作者:Shweta Sharma 2024年8月21日 8分钟 生成性人工智能 安全软件 PODCASTS公司 视频 资源 事件 订阅我们的新闻稿 从我们的编辑直接发送到您的收件箱 在下面输入您的电子邮件地址即可开始。 请输入有效的电子邮件地址 订阅