欧盟的投诉对Meta利用个人数据进行人工智能的计划提出了挑战 在线

2025-05-13

Meta面临隐私问题投诉

关键要点

NOYB组织在11个国家对Meta的AI数据使用计划提起投诉,关注其隐私政策的变化。新隐私政策将使Meta能使用包括私密图像和追踪信息在内的大量个人数据来训练AI模型。企业在使用AI模型时需考虑合规责任,可能会对较小的公司产生不利影响。

版权:Skorzewiak / Shutterstock

Meta近期再次因隐私问题受到关注,隐私倡导团体NOYB已在11个国家针对公司计划使用个人数据训练其AI模型提出投诉。

NOYB呼吁国际监管者对Meta采取立即行动,特别是在10个欧盟成员国及挪威,称即将在6月26日生效的隐私政策调整将允许使用大量个人数据,包括用户帖子、私人图片和追踪信息,以便训练其AI技术。

NOYB在一份声明中表示:“与一些公司使用特定公开数据来训练特定AI系统例如聊天机器人的现有问题不同,Meta的新隐私政策基本上表明,公司希望使用自2007年以来收集的所有公共和非公共用户数据,用于任何未定义的当前及未来的‘人工智能技术’。”

该组织补充说:“这包括许多几乎不再与用户互动的休眠 Facebook账户,但这些账户仍包含大量个人数据。”

Meta上个月向Facebook用户发送了一封电子邮件,宣布相关政策变更,并邀请用户选择退出。邮件中部分内容提到:“Meta的AI包括我们的生成AI功能和体验,例如Meta AI和AI创意工具,以及支撑这些功能的模型为了帮助把这些体验带给您,我们将基于合法利益使用您的信息来开发和改善Meta的AI。这意味着您有权反对我们为这些目的使用您的信息。如果您的反对意见得以采纳,将从那时起生效。”

对其他企业的潜在影响

这一投诉再次突出了隐私与消费者数据在AI模型开发中的使用所引发的严重担忧。在企业层面,这也引发了对合规责任归属的讨论。

shadowrock小火箭

“责任可能转移到提供模型的实体,而用户可能不承担责任,”Pareekh Consulting的首席执行官Pareekh Jain表示。“使用其他公司的模型,诸如Meta或其他大型企业的模型,将使模型的创建者负责明智地使用数据。用户通常不会面临法律问题。”

他补充道,如果实施更严格的隐私法律,这可能意味着只有较大公司能够承担法律和隐私挑战,从而限制哪些企业能够生产大型语言模型。较小公司可能会发现合规成本过高。

企业还需要确保在合同中加入法律豁免条款,就像OpenAI最初提供法律保障给用户一样。

“随着越来越多的AI模型被开发,越来越多的组织参与其中,确保在其运营中包含法律保障显得至关重要,”Jain说。“这将法律责任转移给模型提供者。虽然这可能会减缓创新步伐,但确保公司对法律合规承担责任,可能会限制较小参与者进入市场。”

企业将被迫对AI模型进行定期审计,以确保遵守数据保护法律,Cybermedia Research的总裁Thomas George表示。

“在财务上,企业应考虑留出储备金以应对潜在的合规相关成本,从而减轻任何必须立即修改AI模型所带来的影响,”George说。“在操作上,投资于技术团队的持续培训和发展,以跟上最新的合规要求,可以在需要时更灵活地调整AI系统。”

欧盟的投诉对Meta利用个人数据进行人工智能的计划提出了挑战 在线

AI公司面临的用户数据困境

在欧盟及其他地区,使用个人数据进行AI训练的情况已经成为一个重要关注点。最近,Slack因其隐私政策而遭到反对,用户曝光了客户数据在AI模型中的使用,引发人们对用户选择退出的必要性的新讨论。

与此同时,OpenAI面临在加利福尼亚的一项联