版权:Skorzewiak / Shutterstock
Meta近期再次因隐私问题受到关注,隐私倡导团体NOYB已在11个国家针对公司计划使用个人数据训练其AI模型提出投诉。
NOYB呼吁国际监管者对Meta采取立即行动,特别是在10个欧盟成员国及挪威,称即将在6月26日生效的隐私政策调整将允许使用大量个人数据,包括用户帖子、私人图片和追踪信息,以便训练其AI技术。
NOYB在一份声明中表示:“与一些公司使用特定公开数据来训练特定AI系统例如聊天机器人的现有问题不同,Meta的新隐私政策基本上表明,公司希望使用自2007年以来收集的所有公共和非公共用户数据,用于任何未定义的当前及未来的‘人工智能技术’。”
该组织补充说:“这包括许多几乎不再与用户互动的休眠 Facebook账户,但这些账户仍包含大量个人数据。”
Meta上个月向Facebook用户发送了一封电子邮件,宣布相关政策变更,并邀请用户选择退出。邮件中部分内容提到:“Meta的AI包括我们的生成AI功能和体验,例如Meta AI和AI创意工具,以及支撑这些功能的模型为了帮助把这些体验带给您,我们将基于合法利益使用您的信息来开发和改善Meta的AI。这意味着您有权反对我们为这些目的使用您的信息。如果您的反对意见得以采纳,将从那时起生效。”
这一投诉再次突出了隐私与消费者数据在AI模型开发中的使用所引发的严重担忧。在企业层面,这也引发了对合规责任归属的讨论。
shadowrock小火箭“责任可能转移到提供模型的实体,而用户可能不承担责任,”Pareekh Consulting的首席执行官Pareekh Jain表示。“使用其他公司的模型,诸如Meta或其他大型企业的模型,将使模型的创建者负责明智地使用数据。用户通常不会面临法律问题。”
他补充道,如果实施更严格的隐私法律,这可能意味着只有较大公司能够承担法律和隐私挑战,从而限制哪些企业能够生产大型语言模型。较小公司可能会发现合规成本过高。
企业还需要确保在合同中加入法律豁免条款,就像OpenAI最初提供法律保障给用户一样。
“随着越来越多的AI模型被开发,越来越多的组织参与其中,确保在其运营中包含法律保障显得至关重要,”Jain说。“这将法律责任转移给模型提供者。虽然这可能会减缓创新步伐,但确保公司对法律合规承担责任,可能会限制较小参与者进入市场。”
企业将被迫对AI模型进行定期审计,以确保遵守数据保护法律,Cybermedia Research的总裁Thomas George表示。
“在财务上,企业应考虑留出储备金以应对潜在的合规相关成本,从而减轻任何必须立即修改AI模型所带来的影响,”George说。“在操作上,投资于技术团队的持续培训和发展,以跟上最新的合规要求,可以在需要时更灵活地调整AI系统。”
在欧盟及其他地区,使用个人数据进行AI训练的情况已经成为一个重要关注点。最近,Slack因其隐私政策而遭到反对,用户曝光了客户数据在AI模型中的使用,引发人们对用户选择退出的必要性的新讨论。
与此同时,OpenAI面临在加利福尼亚的一项联