全球首部人工智能(AI)领域全面监管法规即将生效。
欧洲理事会官网显示,当地时间5月21日,该机构将正式批准欧盟《人工智能法案》(下称《AI法案》)。该法案基于风险分类,将AI系统划分为四类,即不可接受风险、高风险、有限风险和极低风险,并针对不同风险类别采取了相应监管策略。
随后,《AI法案》将在欧盟官方公报上公布二十天后生效,法案内容将分阶段适用。具体来说,法案中规定禁止的做法将在生效6个月后适用;通用型人工智能(GPAI)的相关义务和规则将在生效12个月后适用;法案生效24个月后,该法案完全适用,但一些高风险AI系统的规则将在生效后36个月适用。
在国际上,欧盟一直希望能在数字监管领域抢跑。然而,随着AI技术的发展突破日新月异,如何避免法规和技术的发展出现“错位”?在数字经济领域,欧盟近年来已经推出了《通用数据保护条例》(GDPR)、《数字服务法案》、《数字市场法案》,这是否会给企业造成合规责任不清晰的问题,又该如何应对?
北京金杜律师事务所合伙人吴涵律师在网络安全和数据合规领域有多年执业经验,他在接受第一财经记者专访时表示,在数字立法上,欧盟常以事前监管为重点,构建涵盖事前、事中和事后的全链条监管体系。
吴涵认为,《AI法案》采用的“以风险为进路”的管理方法可以看作一种初级灵活管理框架,在医疗、金融、自动驾驶等其他领域立法也是常见的监管方案。
“权宜之计”
第一财经:《AI法案》以风险为导向进行分级管理,怎么评价这种管理思路?欧盟内部对此的立场是否统一?
吴涵:我理解以风险为导向的分级管理,通常是对于新生技术/应用缺乏进一步有效管理措施的“权宜之计”。在这一套机制下具体的风险分级标准和AI系统类目,也是其漫长立法进程中摩擦不断的原因之一。
一方面,有欧盟专家痛批《AI法案》为“充斥着对行业游说的让步,对执法和移民当局最危险的AI使用的豁免”。欧洲数据保护委员会(EDPB)和欧洲数据保护监督员(EDPS)也曾指出,《AI法案》的高风险AI清单存在遗漏,没有涵盖使用AI确定保费或者评估医疗方法适用于健康研究目的等场景。
另一方面,对于AI企业和具备AI发展战略的欧盟成员国而言,尤其是法国、德国和意大利来说,对于《AI法案》过度、提前监管的态势颇有微词。在2023年底,法国、德国和意大利曾对《AI法案》提出明确的反对意见,包括反对并提出对于通用模型的两层风险分级方法,即以是否为具备“系统性风险”的通用模型来设定合规义务的方法的替代方案。
由此可以看到,这一管理思路的弊病也许就在于“两头不讨好”。这种具体立法的功能性危机,可能不仅是《AI法案》,而是人工智能时代乃至技术时代立法需要不断直面的“技术局限”。
值得注意的是,这种局限性是所有对于新技术监管的局限性,在AI领域尤其明显,因为它应用过于广泛,且对于对齐等问题还未有更深入研究,但部分风险已经发生,必须边管理边观察补充。所以风险分类分级是在局限性中当前既能管理风险又避免“一刀切”的领先思路。
当然,参考GDPR实施至今的经验教训,《AI法案》从对AI乃至AI“操纵”等涉及较重合规义务的高风险人工智能相关定义的语焉不详,以及对应义务的模糊表述可能也会损伤其法律确定性,导致新应用、新技术企业在无法明确自身义务边界的情况下面临合规难题。即便《AI法案》自身已有一定机制来保证其灵活性,考虑到分阶段生效的漫长周期,落地执行时的效能也还有待进一步观察。
第一财经:《AI法案》是否有机制确保自身跟上AI技术和应用场景的迅速迭代?
吴涵:《AI法案》在序言中提到,为了对AI系统采取有效、成比例的约束规则,应当遵循“以风险为进路”的方法,即根据AI系统可能产生的风险范围与风险程度,调整对AI系统的具体监管规则。
结合《AI法案》现有规定,可以看出,欧盟在立法时的确作出了一定程度上的努力,以便法案规定的监管规则具有相应的灵活性,适应AI技术的发展。
比如说,充分考虑AI技术发展快、专业性强的特点,《AI法案》授权欧盟委员会每年度评估禁止使用的AI系统目录是否需要修订。同时,欧盟委员会还需在《AI法案》生效后的四年内对法案本身例如高风险AI系统清单进行评估和审查,并于此后每四年评估和审查一次,最终向欧洲议会和欧盟理事会报告。
同时,在通用AI模型方面,《AI法案》依据设置的每秒执行的浮点运算次数(FLOPs,被广泛用来评估处理器或系统的计算能力)阈值,将通用AI模型进一步区分为具有系统性风险的通用AI模型。而FLOPs阈值的参数并非绝对不变的,而是随着时间的推移、技术的革新而变化。
此外,欧盟还新设了人工智能办公室,在促进《AI法案》的统一适用外,还重点监测由通用AI模型产生的不可预见的风险,从而为及时应对新生风险留出一定的空间。
然而,考虑到《AI法案》还未正式生效,相关机制保障《AI法案》快速适应AI技术和应用场景迅速迭代的效果有待后续实践的观察。
企业合规方面是否会遇到“麻烦”
第一财经:欧盟治理数字经济的法案很多,是否可能出现“意大利面碗”现象?比如,同时适用AI Act和GDPR但合规责任不清晰,这种情况是否多发?
吴涵:《AI法案》并不是空中楼阁,想要与正在制定中的以及既存的欧盟数字经济法案取得协调不会是易事,其中可能涉及规范重叠、空白和不一致性等诸多问题。
举例而言,欧盟《数字市场法案》的“守门人”相关制度条款均正好也已于2024年3月生效,欧盟委员会首次指定的六家“守门人”企业,Alphabet、亚马逊、苹果、字节跳动、Meta和微软需要尽快确保被指定的核心平台服务符合“守门人”相关要求。不难发现,这些企业几乎也都是AI市场的领头羊,因此他们会如何处理欧盟数字《市场法案》与《AI法案》的交叉竞合会是很棘手但也很有意思的问题。
例如,欧盟《数字市场法案》规定“守门人”应根据企业用户及其授权第三方的要求,免费向其提供对于包括个人数据在内的汇总和非汇总数据的有效、高质量、持续和实时地访问和使用服务。考虑到《AI法案》和欧盟《数字市场法案》对于数据集、数据库等概念的定义并不一致,欧盟《数字市场法案》也并未就此为AI提供特殊规则。这意味着,守门人需要思考将用户数据用于AI训练时,如何做好数据隔离等措施来保障自身对于训练数据集的权益,并同时满足法律要求。
第一财经:高风险AI系统的主要监管制度下,《AI法案》指出了在AI供应链的相关责任主体,但其中是否存在责任界定不清晰的问题?
吴涵:首先从责任主体和行政责任来讲,针对高风险AI系统的上下游供应链,欧盟《AI法案》已初步构建起围绕AI系统提供者、分销者、进口者等相关主体的价值链,明确了提供者以外的利益相关主体对于高风险AI系统投放市场、投入使用应承担的合规义务。同时,《AI法案》第99条也已就相关主体违反法案规定的行为,设置了最高1500万欧元或上一财政年度全球营业总额3%的罚款。
然而,就包含高风险AI系统、通用AI系统在内的AI系统所造成的实际损害责任分配机制而言,即AI系统价值链中的各方参与主体如何就损害分配,相应的法律责任仍然处于模糊不清的状态。
例如,某个企业通过某高风险AI系统向用户提供服务,但这一系统是基于某通用AI模型提供者提供的AI模型生成的。如果该系统主要由提供者输入数据进行优化,企业仅能输入有限数量的数据对系统进行训练,当最终该AI系统生成的内容对用户造成了实际损害,该企业是否需就相关损害独立承担责任、企业是否能要求通用AI模型提供者共同承担责任?如企业和通用AI模型提供者需共同对损害承担法律责任,则双方各自需在多大程度上承担责任?考虑到通用AI模型复杂的上下游应用关系,其中一方责任主体是否能在满足特定情形时免除责任?如一方主体的责任有可能被豁免,需满足何种条件方可触发豁免?前述问题均能体现,目前欧盟《AI法案》的责任分配机制存在一定的不确定性,更为具体的责任分配规则可能有待欧盟相关监管部门在后续的个案执法中予以体现。
此外,还有一种观点认为,《AI法案》对AI系统相关主体责任分配机制的留白是欧盟AI监管立法的“有意为之”。考虑到AI技术更迭、发展迅猛的特点,结合AI系统自主学习而可能引发的“算法黑箱”等问题,在对未来AI系统的应用场景、可预期作用目标、可能给社会、公民造成的权益损害等均具备一定程度不确定性的现阶段,保留责任分配机制的适当模糊性可能有助于欧盟的AI监管部门在个案中调整责任分配策略,始终实现维护个人健康、安全等基本权利的最终目标,同时避免部分企业在明确清晰的责任分配框架下通过调整业务模式等方式转移其本应承担的法律责任。