当前位置:首页 > 合规类 > IAPP > 考试资讯 > 项目动态 >
2023-11-29 14:14:29
浏览量:0
对于欧洲立法者来说,作为涵盖研究人员、中小企业、工人、消费者、公民、智囊团、人工智能数字权利与道德、风险和隐私组织的欧洲利益相关者,我们写这封信是为了支持西班牙主席国和欧洲议会为应对人工智能所带来的独特挑战所做的努力。通过《人工智能法案》中的分层方法建立基础模型。
01 欧洲的监管领导力是一项 值得重视的资产
在越来越多的全球人工智能治理非监管努力中管理基础模型风险,例如七国集团行为准则、英国和美国人工智能安全研究所以及白宫行政命令在人工智能方面,欧洲处于独特的地位,可以执行人工智能的第一个横向监管,包括具有全球影响力的基础模型。
因此,西班牙轮值主席国的提案允许采取平衡的方法来监管基础模型,完善欧洲议会的跨党派立场,在《欧盟人工智能法案》中为此类模型设定义务。
02 基础模型作为一种技术呈现出 必须管理的独特风险状况
基础模型与传统人工智能有很大不同。它们的通用性、开发成本以及作为数千个下游应用程序的单点故障的能力意味着它们具有独特的风险状况——一种系统性的、尚未完全理解的风险状况,并且基本上影响社会的所有部门(以及数百个数百万欧洲公民)。
我们必须在整个价值链上全面评估和管理这些风险,并由有能力和效率解决这些风险的人承担责任。
鉴于在部署和适应应用程序时缺乏修改基础模型中的潜在缺陷的技术可行性和可访问性,除了将一些责任归咎于上游模型开发人员提供的技术之外,没有其他合理的风险管理方法。
03 适用于基础模型技术的监管 远非欧洲工业的负担
而是提供了必要的保护,这将有利于欧盟工业和新兴的人工智能生态系统。训练高影响力模型所需的大量资源限制了开发人员的数量,因此此类监管的范围将很窄:与数千个潜在的受监管实体相比,全球资本总额超过 1 亿美元的受监管实体不到 20 个欧盟部署者。
如果该法案旨在最大限度地减少整个欧盟生态系统的负担,这些大型开发商可以而且应该承担当前强大模型的风险管理责任。对大型上游开发商的要求为众多较小的下游参与者提供了透明度和信任。
否则,欧洲公民将面临下游部署者(尤其是中小企业)根本无法在技术上管理的许多风险:缺乏稳健性、可解释性和可信度。模范卡和自愿(因此不可强制执行)的行为准则是不够的。
部署这些模型的欧盟公司将成为责任磁铁。基金会模型的监管是欧盟工业和公民的重要安全屏障。
04 西班牙轮值主席国的做法 平衡了风险管理和创新
我们支持该提案,认为这是欧洲议会和成员国之间通过分层方法达成的适当妥协。拟议使用计算阈值,这是与风险密切相关的易于测量的标准,为监管提供了实用的基础,从风险管理的角度来看,这是有意义的,同时保留了中小企业人工智能开发的努力。
为了面向未来,随着技术的发展和风险衡量科学的进步,必须修改阈值并补充标准,但它提供了一个良好的起始基线*。
我们相信,这将至关重要地让欧盟人工智能法案能够管理欧洲公民现在和将来面临的风险。
05 抵制狭隘的游说利益以保护民主进程
《欧盟人工智能法案》在两年多的时间里征求了广泛的代表性利益相关者的意见:开发商、欧洲工业、中小企业、民间社会、智囊团等。在此基础上,防止大型科技公司和少数大型人工智能公司的既得游说努力规避这一民主进程至关重要。
欧洲监管机构保护社会和支持中小企业的能力绝不能因为少数人的利益而受到损害。
将基础模型纳入人工智能法案不仅是监管的必要性,也是民主的必要条件,也是实现负责任的人工智能开发和部署的必要步骤。
我们敦促所有相关各方以西班牙提案和10 月 24 日三场会议共识为基础,开展建设性工作,找到合适的监管解决方案,以造福欧洲更安全、更值得信赖和主权的人工智能格局
*算法改进率是计算阈值必须调整的进步的主要驱动力,每年 2.5 倍,这意味着阈值必须每 2 到 3 年降低一次,这似乎非常容易管理(Erdil 等人) ., 2023 )
*文章来源:https://www.tieredapproach.eu
*原标题:Open Letter to Support Regulating Foundation Models with a Tiered Approach in the EU AI Act
*整理编辑:A隐小私(yinxiaosi00)