关注我们,学习更多隐私合规讯息
意大利最近禁止 Open AI 的生成文本工具可能只是 ChatGPT 监管困境的开始。
意大利数据监管要求OpenAI停止
当 OpenAI 在 2020 年 7 月发布 GPT-3时,它提供了用于训练大型语言模型的数据的一瞥。根据一篇 技术论文,从网络、Reddit 帖子、书籍等中收集的数百万页被用于创建生成文本系统。在此数据中收集的是你在网上分享的一些关于你自己的个人信息。这些数据现在让 OpenAI 陷入困境。
3 月 31 日,意大利数据监管机构 发布了一项临时紧急决定,要求 OpenAI 停止使用其训练数据中包含的数百万意大利人的个人信息。
根据监管机构 Garante per la Protezione dei Dati Personali 的说法,OpenAI 没有合法权利在 ChatGPT 中使用人们的个人信息。
作为回应,OpenAI 已阻止意大利人访问其聊天机器人,同时它向正在进一步调查的官员提供答复。
这是西方监管机构首次针对 ChatGPT 采取的行动,凸显了围绕创建巨大的生成式 AI 模型的隐私紧张,这些模型通常在大量互联网数据上进行训练。正如 艺术家和 媒体公司抱怨生成式 AI 开发人员未经许可使用他们的作品一样,数据监管机构现在对人们的个人信息也是如此。
多个欧洲国家联系Garante要求调查
整个欧洲都可能做出类似的决定。在意大利宣布调查后的几天里,法国、 德国和爱尔兰的数据监管机构已联系 Garante,要求提供有关其调查结果的更多信息。
“如果商业模式只是在互联网上搜索你能找到的任何东西,那么这里可能会出现一个非常重要的问题,”
挪威数据保护机构国际负责人 Tobias Judin 说,该机构正在监测事态发展。
Judin 补充说,如果一个模型是建立在可能被非法收集的数据之上的,那么就会引发关于是否任何人都可以合法使用这些工具的问题。
意大利对 OpenAI 的打击也发生在对大型人工智能模型的审查稳步增加之际。3 月 29 日,技术领导者呼吁 暂停 ChatGPT 等系统的开发,担心其未来的影响。朱丁说,意大利的决定凸显了更紧迫的担忧。“从本质上讲,我们看到迄今为止的 AI 开发可能存在巨大的缺陷,”Judin 说。
意大利工作
欧洲的 GDPR 规则涵盖了组织收集、存储和使用人们个人数据的方式 ,保护了整个大陆 4 亿多人的数据。
这些个人数据可以是从人名到 IP 地址的任何内容——如果它可以用来识别某人,就可以算作他们的个人信息。
与美国州级隐私规则的拼凑不同,GDPR 的保护适用于人们的信息可在网上免费获得的情况。简而言之:仅仅因为某人的信息是公开的并不意味着你可以将其抽空并用它做任何你想做的事。
意大利的 Garante 认为 ChatGPT 在 GDPR 下存在四个问题:
1️⃣OpenAI 没有年龄控制来阻止 13 岁以下的人使用文本生成系统
2️⃣它可以提供有关人员的不准确信息
3️⃣人们还没有被告知他们的数据已被收集
4️⃣也许最重要的是,它的第四个论点声称,在用于训练 ChatGPT 的海量数据中收集人们的个人信息“没有法律依据”
ChatGPT影响有多大?
“意大利人虚张声势,”英国纽卡斯尔大学法律、创新和社会学教授莉莲·爱德华兹 (Lilian Edwards) 说。“在欧盟看来确实很明显这违反了数据保护法。”
从广义上讲,公司要根据 GDPR 收集和使用人们的信息,他们必须依赖 六种法律理由之一,从某人的许可到合同要求的信息。爱德华兹说,在这种情况下,基本上有两种选择:
获得人们的同意——OpenAI 没有这样做
争辩说它有“合法利益”来使用人们的数据,这“很难”做到,爱德华兹说。
Garante 告诉 WIRED,它认为这种防御是“不充分的”。OpenAI 的 隐私政策没有直接提及其在训练数据中使用人们的个人信息的法律原因,但表示它在“开发”其服务时依赖于“合法利益”。该公司没有回应《连线》杂志的置评请求。
与GPT-3 不同,OpenAI 没有公布任何进入 ChatGPT 的训练数据的细节,而 GPT-4被 认为要大几倍。
然而,GPT-4 的技术文件包括一个关于隐私的部分,其中说它的训练数据可能包括来自多个来源的“公开可用的个人信息”。该论文称,OpenAI 采取措施保护人们的隐私,包括“微调”模型以阻止人们询问个人信息,以及“在可行的情况下”从训练数据中删除人们的信息。
如何合法地收集数据用于训练数据集?
“如何合法地收集数据用于训练数据集,用于从常规算法到一些非常复杂的人工智能的一切,这是一个现在需要解决的关键问题,因为我们正处于这种技术采用的临界点结束了,”Loeb and Loeb 律师事务所的合伙人杰西卡·李 (Jessica Lee) 说。
意大利监管机构的行动——也正在 对 Replika 聊天机器人采取行动——有可能成为检查 OpenAI 数据实践的众多案例中的第一个。
GDPR 允许在欧洲设有基地的公司指定一个国家来处理其所有投诉——例如,爱尔兰与谷歌、Twitter 和 Meta 打交道。
然而,OpenAI 在欧洲没有基地,这意味着根据 GDPR,每个国家都可以对它提出投诉。
模型数据
OpenAI 并不孤单。专家表示,意大利监管机构提出的许多问题可能会触及机器学习和生成人工智能系统所有开发的核心。欧盟正在 制定人工智能法规,但到目前为止,在隐私方面针对机器学习系统的发展采取的行动相对较少。
牛津大学人工智能伦理研究所高级研究员、数据实践作者Elizabeth Renieris 表示:“这项技术的构建模块的基础已经腐烂,我认为这将很难治愈。 ” 她指出,许多用于训练机器学习系统的数据集已经存在多年,而且在将它们放在一起时可能很少考虑隐私问题。
“数据最终如何进入 GPT-4 之类的东西,存在这种分层和复杂的供应链,”Renieris 说。
“从来没有真正设计或默认的任何类型的数据保护。” 2022 年,一个广泛使用的图像数据库的创建者建议对数据集中的人脸图像进行模糊处理,该数据库已帮助训练 AI 模型达十年之久 。
在欧洲和加利福尼亚,隐私规则允许人们 在信息不准确时要求删除或 更正信息。但是,从 AI 系统中删除不准确或某人不想要的内容可能并不简单——尤其是在数据来源不明的情况下。Renieris 和 Edwards 都质疑 GDPR从长远来看是否能够对此采取任何措施,包括维护人们的权利。纽卡斯尔大学的爱德华兹说:“对于如何使用这些非常大的语言模型来做到这一点,没有任何线索。” “他们对此没有规定。”
到目前为止,至少有一个相关的例子,当时美国联邦贸易委员会命令以前称为Weight Watches的公司删除根据其无权使用的数据创建的算法。但随着审查的加强,此类命令可能会变得更加普遍。“
显然,根据技术基础设施,可能很难完全清除用于训练它的所有个人数据的模型,”来自挪威数据监管机构的 Judin 说。“如果模型随后通过非法收集的个人数据进行训练,这将意味着你基本上可能无法使用你的模型。”
*文章来源:www.wired.co.uk
*原标题:ChatGPT 存在很大的隐私问题
*整理编辑:A隐小私(yinxiaosi00)
■ DEPTH
想了解IAPP哪个证书适合你?
全套资料长按扫码领取
■ DEPTH
什么是IAPP国际隐私证?
一起了解IAPP证书
-End-
■ DEPTH
想了解IAPP哪个证书适合你?
资格评估可直接扫码
免费评估/赠送一份国际隐私认证学习资料一份
觉得不错你就赞赞我吧!
点分享
点点赞
点在看
戳这,领取IAPP备考资料包