法规研究|欧盟发布《通用目的人工智能业务守则》第一版草案及相关问答-1
HomepageBlog
法规研究|欧盟发布《通用目的人工智能业务守则》第一版草案及相关问答-1

法规研究|欧盟发布《通用目的人工智能业务守则》第一版草案及相关问答-1

Kaamel Lab
Kaamel Lab

2024年11月14日,欧洲人工智能办公室发布了通用目的人工智能业务守则(以下简称《GPAI业务守则》)初稿,标志着四轮起草中第一轮的完成。该草案概述了指导原则和目标,指导通用人工智能模型提供商履行合规义务,制定证明合规和保证人工智能办公室监督的程序。它促进了通用目的人工智能模型提供者理解自身在人工智能价值链中的特殊作用和责任,以支持整合和履行《人工智能法》和相关法律规定的义务。

一、背景

2024年8月1日生效的《人工智能法案》第56条规定,欧盟人工智能办公室应在该法案生效后9个月内推动《GPAI业务守则》的制定,最终相关方需要签署该守则。欧盟人工智能办公室设置了四个密切合作的工作组完成该守则的起草工作,纳入不同利益相关者的观点,为欧盟通用人工智能模型的合规发展做出贡献,四个工作组分别负责制定通用人工智能守则的特定部分,工作组1负责透明度和版权相关规则,工作组2负责系统性风险识别与评估措施,工作组3负责系统性风险技术风险缓解措施,工作组4负责系统性风险治理风险缓解措施。
2024年11月14日,欧盟委员会正式发布了《人工智能法案》的常见问题(frequently-asked question,FAQ)以及第一版《GPAI业务守则》草案。FAQ明确了《人工智能法》下GPAI模型的定义、通用性和市场投放,回应了与《人工智能法案》和《GPAI业务守则》相关的重要问题。业务守则第一版草案解决了通用人工智能模型提供商的关键考虑因素,概述了其义务,相关提供商将在最终版业务守则生效后签署。该草案概述了指导原则、目标,以及GPAI提供商的透明度和版权规则、系统性风险识别分类规则以及系统性风险缓解措施。本篇文章将就FAQ及《GPAI业务守则》前两部分进行研究,后续将继续发布同系列文章

二、FAQ

1. 什么是通用人工智能(GPAI)模型?

《人工智能法案》将通用人工智能模型定义为“一种人工智能模型,包括使用大规模自监督学习训练的大量数据的人工智能模型,无论其以何种方式投放市场,该模型均表现出显著的通用性,能够熟练地执行各种不同的任务,并能够集成到各种下游系统或应用中”。
《人工智能法案》的序言部分进一步阐明了哪些模型应被视为具有显著通用性并且能够执行广泛的不同任务:根据序言第98条“具有至少十亿个参数并且使用大规模自监督学习训练的大量数据的模型”、序言第99条“大型生成式人工智能模型”是通用人工智能模型,如果某种模态(如文本、音频、图像或视频)足够灵活,那么在该模态内的模型也可能实现显著的通用性和执行广泛不同任务的能力。

2. 什么是具有系统性风险的通用人工智能模型?

系统性风险是指在任何特定时间点,最前沿的模型或其他具有同等影响的模型造成大规模损害的风险。此类风险可能表现为,降低化学或生物武器研发的门槛对通用人工智能模型的意外控制问题,或大规模的有害歧视或虚假信息。由于最前沿的模型在不断推进技术水平,因此它们在任何特定时间点都可能带来系统性风险(包括新型风险)。同时一些未达到反映最前沿技术水平门槛的模型也可能带来系统性风险。
因此根据《人工智能法案》,当时最先进或具有同等影响的通用人工智能模型将被归类为具有系统性风险的通用人工智能模型。哪些模型被视为具有系统性风险的通用人工智能模型可能会随时间而变化,这反映了技术前沿的不断演进以及社会对日益先进模型的潜在适应。目前,具有系统性风险的通用人工智能模型由少数几家公司开发,但这种情况也可能随时间而改变。
为了筛选出最先进的模型,《人工智能法案》最初设定了训练模型时使用的1025次浮点运算(FLOP)作为门槛,目前训练达到这一门槛的模型成本高达数千万欧元。人工智能办公室将持续监测技术和工业发展,以确保其能随着技术前沿的演进继续筛选出最先进的模型。为了获取与最先进模型具有同等影响的模型,《人工智能法案》授权委员会根据用户数量、可扩展性或工具访问等标准,将其他模型认定为具有系统性风险的模型。

3. 开源模型是否必须遵守GPAI提供商的义务?

如果模型是在自由及开放源代码许可下发布,并且其参数(包括权重、模型架构信息以及模型使用信息)已公开可用,那么其提供商无需履行向人工智能办公室、国家主管部门以及下游提供商编制和提供文件的义务。但此豁免不适用于具有系统性风险的GPAI。具有系统性风险的通用人工智能模型的提供商,无论其模型是否为开源,都必须遵守《人工智能法案》规定的义务。开源模型发布后,可能更难实施上述提供文件措施,因此具有系统性风险的通用人工智能模型的提供商可能需要在将模型开源之前评估并减轻系统性风险。
《通用人工智能业务守则》将进一步详细说明该义务对以不同方式(包括开源)发布通用人工智能模型的影响。在此过程中,一个重要但困难的问题是,如何在追求开源先进通用人工智能模型的好处与减轻其风险之间找到平衡:开源先进通用人工智能模型确实可能带来显著的社会效益,包括促进人工智能安全研究;但同时,当这些模型被开源时,风险缓解措施更容易被规避或移除。

4. GPAI提供商的义务是否适用于研发阶段?

《人工智能法案》中明确法案不适用于人工智能系统或人工智能模型在投放市场或投入使用之前的任何研究、测试或开发活动。然而,许多针对GPAI模型(无论是否具有系统性风险)提供商的义务,明确或隐含地涉及了旨在但尚未投放市场模型的研发阶段。例如,提供商需通知委员会其GPAI模型达到或将达到训练计算阈值、记录训练和测试信息以及评估和减轻系统性风险等义务的情况。
无论如何,人工智能办公室期望与具有系统性风险的GPAI模型提供商在开发阶段早期就开始协商讨论。这与《人工智能法案》规定的达到训练计算阈值的GPAI模型提供商“应在满足该要求或得知将满足该要求后两周内,立即且无论如何不迟于两周内通知委员会”的义务是一致的。GPAI模型的训练需要大量的规划,包括预先分配计算资源,因此通用人工智能模型的提供商在训练完成之前就能知道其模型是否会达到训练计算阈值。

5. 微调或修改模型是否必须遵守GPAI提供商的义务?

GPAI模型可能会被进一步修改或微调成新的模型,因此对现有通用人工智能模型进行微调或以其他方式修改的下游实体可能会成为新模型的提供商。下游实体在何种具体情况下会成为新模型的提供商是一个棘手的问题,可能产生巨大的经济影响,因为许多组织和个人会对由其他实体开发的通用人工智能模型进行微调或以其他方式修改。在对现有通用人工智能模型进行修改或微调的情况下,其提供商的义务应仅限于修改或微调部分,例如,通过用有关修改的信息补充已有的技术文档具有系统性风险的通用人工智能模型提供商的义务可能也以类似方式受到限制。《GPAI业务守则》将会反映初始开发通用人工智能模型的提供商与对现有模型进行微调或以其他方式修改的提供商义务之间的差异。
值得注意的是,无论将通用人工智能模型纳入人工智能系统中的下游实体是否被视为该通用人工智能模型的提供商,该实体都必须遵守《人工智能法案》对人工智能系统规定的相关要求和义务。

6. 《GPAI业务守则》是什么?

《GPAI业务守则》详细阐述通用人工智能模型提供者以及具有系统性风险的通用人工智能模型提供者如何履行《人工智能法案》所规定的义务。人工智能办公室正推动该业务守则的制定工作,成立了由独立专家主持的四个工作组,有近1000名利益相关者、欧盟成员国代表以及欧洲和国际观察员参与其中。
更具体地说,GPAI业务守则预计将包含两个部分:一部分适用于所有通用人工智能模型的提供者,另一部分则仅适用于具有系统性风险的通用人工智能模型的提供者。此外,业务守则可能还涵盖另一项义务,即对于被归类为具有系统性风险的通用人工智能模型的提供者,需向欧盟委员会履行通知义务。

7.《业务守则》中人工智能系统是否发挥作用?

《人工智能法案》对人工智能系统和人工智能模型进行了明确区分,对特定人工智能系统提出了具体要求,并对通用人工智能模型提供者规定了相应义务。虽然《人工智能法案》中关于人工智能系统的规定取决于系统的具体使用场景,但关于通用人工智能模型的规定则直接适用于模型本身,无论其最终用途如何或将来如何。因此,《业务守则》应仅涉及《人工智能法案》中对通用人工智能模型提供者的义务部分。
然而,这两组规则之间存在相互作用,因为通用人工智能模型通常被集成到人工智能系统中,并成为其组成部分。如果通用人工智能模型的提供者将该模型集成到某个人工智能系统中,那么该提供者必须同时遵守对通用人工智能模型提供者的义务,以及《人工智能法案》对人工智能系统的要求。如果下游提供者将通用人工智能模型集成到人工智能系统中,那么通用人工智能模型的提供者必须与下游的人工智能系统提供者进行合作,以确保后者能够履行其在《人工智能法案》下的义务(例如,通过向下游提供者提供某些必要信息)。鉴于模型与系统之间以及各自义务与要求之间的这些相互作用,《业务守则》中一个核心的问题是:哪些措施在模型层面是适当的,而哪些措施需要在系统层面来采取。

8.《GPAI业务守则》如何考虑初创企业需求

《GPAI业务守则》应明确其目标、措施,并酌情制定关键绩效指标(KPIs)以衡量目标的实现情况。适用于所有GPAI模型提供者的义务相关的措施和KPIs应充分考虑提供者的规模,并为中小企业(包括初创企业)提供简化的合规方式,这些方式不应造成过高的成本,也不应阻碍此类模型的使用。此外,与具有系统性风险的通用人工智能模型提供者所承担的义务相关的KPIs应反映不同提供者之间在规模和能力上的差异,确保这些KPIs与风险成比例。

9. 人工智能办公室拥有哪些执法权?

人工智能办公室(AI Office)将负责执行通用人工智能模型提供者的义务,并在其他任务中,支持成员国内部的治理机构执行对人工智能系统的要求。人工智能办公室的执行工作以其根据《人工智能法案》所获得的权力为基础,这些权力包括:要求提供信息的权力、对通用人工智能模型进行评估的权力、要求提供者采取措施的权力(包括实施风险缓解措施和从市场上召回模型),以及处以最高相当于全球年度营业额3%或1500万欧元(以较高者为准)的罚款的权力。

三、草案内容

第一版草案旨在提供一个“面向未来”的守则,适用于2025年及以后将开发和发布的新一代模型。草案包括序言及四工作组负责编写的具体规则。序言中强调改善内部市场的运作、为以人为中心和可信的人工智能监管创造公平竞争环境的重要性,同时确保《欧洲联盟基本权利宪章》所规定的健康、安全、基本权利免受人工智能在欧盟内造成的有害影响,并支持《人工智能法》所强调的创新。具体的业务守则由三部分组成:

1. 通用目的人工智能模型提供者规则

1.1 透明度

签署方承诺制定并更新附表中列出的模型技术文档(包括但不限于模型的训练、测试过程及其评估结果),按表格规定应人工智能办公室和国家主管机关的要求提供(措施1),并向下游提供商提供(措施2)。鼓励将列出的信息全部或部分向公众披露,以提高公众透明度。对附表中列出的内容有疑问可向委员会要求更详细的说明。

1.2 版权规则

签署方将制定并实施内部政策,以遵守欧盟版权及相关权利法律(措施3)。签署方制定的内部政策应涵盖GPAI模型的整个生命周期。对于上游版权合规,签署方在与第三方就使用数据集开发通用目的人工智能模型签订合同之前,应进行合理的版权尽职调查。签署方应鼓励向第三方请求信息,了解第三方如何识别并遵守版权保留。同时签署方应实施合理的下游版权措施(本措施不适用于中小企业),以降低集成了通用目的人工智能模型的下游系统或应用产生侵权版权输出的风险。下游版权政策应考虑签署方是将GPAI模型垂直集成到自己的人工智能系统中,还是根据合同关系将GPAI模型提供给其他实体。签署方应避免其模型的过拟合,并使合同条款的订立或有效性取决于该实体承诺采取适当措施,以避免重复生成与受保护作品相同或可识别相似的输出。
当签署方为开发其GPAI模型而进行文本和数据挖掘时,应确保合法访问受版权保护的内容,识别并遵守版权保留的规定(措施4)。为此签署方将仅使用能够读取并遵循根据机器人排除协议(robots.txt)表达的指令的爬虫;同时应保证不影响可发现性,提供在线搜索引擎或控制此类提供商的签署方,将采取适当措施确保根据机器人排除协议表达的爬虫排除不会对其搜索引擎中内容的可发现性产生负面影响;对于在线公开提供的内容,签署方将按照广泛使用的行业标准,尽力识别和遵守版权保留的其他适当机器可读手段;签署方受委员会邀请需要与其他相关利益相关者共同讨论(本措施不适用于中小企业),合作开发可互操作的机器可读标准,用于遵守此类版权保留。最后,签署方承诺不爬取盗版网站。
为了保证版权透明度,签署方承诺对其为遵守欧盟版权及相关权利法律而采取的措施保持足够的透明度(措施5)。公开关于其为识别和遵守版权保留而采取的措施的充分信息,至少包括签署方用于开发通用AI模型的所有爬虫的名称及其相关的robots.txt功能;鼓励签署方指定一个单一联系点以便版权所有者能够直接且迅速地与之沟通,并实施适当的投诉处理程序;为了使人工智能办公室能够监督签署方是否履行了制定政策以遵守欧盟版权及相关权利法律的义务,签署方将制定、保持更新,并在人工智能办公室要求时提供关于用于训练、测试和验证的数据来源以及访问和使用受保护内容开发通用AI的授权的信息。

2. 系统性风险的分类法

系统性风险的分类并非穷尽,且将随时间变化而变化,以反映科学进步和社会变迁。虽然该部分讨论的风险通常指的是通用人工智能模型,而非人工智能系统,但某些风险往往通过考虑通用人工智能模型如何在人工智能系统中部署来最佳地识别、评估和缓解。签署方承诺以本业务守则的系统性风险的分类体系要素为基础,进行其系统性风险的评估和缓解(措施6)。

2.1 系统性风险的类型:

  • 网络攻击:与攻击性网络能力相关的风险,如发现或利用漏洞。 • 化学、生物、辐射和核风险:双重用途科学风险,可能通过武器开发、设计、获取和使用等途径促成化学、生物、辐射和核武器攻击。 • 失控风险:与无法控制强大的自主通用人工智能模型相关的问题。 • 自动化使用模型进行人工智能研发:这可能极大地加快人工智能的发展速度,可能导致具有系统性风险的通用人工智能模型出现不可预测的发展。 • 说服和操纵:促进大规模的说服和操纵,以及大规模的错误信息或误导信息,对民主价值观和人权构成风险,如选举干预、对媒体的信任丧失以及知识的同质化或过度简化。 • 大规模歧视:对个体、社群或社会的大规模非法歧视。
除上述列出的风险外,还可能识别出其他系统性风险,例如考虑到重大事故、大规模侵犯隐私和监控,以及通用人工智能模型可能对公共卫生、安全、民主进程、公共和经济安全、关键基础设施、基本权利、环境资源、经济稳定、人类能动性或整个社会造成大规模负面影响的其他方式。
初稿在此提出开放问题征求各方意见: • 在定义风险是否为系统性风险时,应考虑哪些相关因素或标准? • 基于这些因素或标准,哪些风险应优先添加到主要的系统性风险分类中? • 系统性风险分类应如何处理人工智能生成的儿童性虐待材料和未经同意的私密图像?

2.2 系统性风险的性质

系统性风险的性质指的是影响这些风险如何被评估和缓解的关键属性。以下关于系统性风险性质的维度提供了既非穷尽也非互斥的示例: • 起源:模型能力、模型分布 • 推动风险的行为者:国家、团体、个人、自主人工智能代理、无法确定明确的行为者 • 意图:有意、无意(包括不一致) • 新颖性:有先例、无前例 • 概率-严重性比率:低影响高概率、高影响低概率、高预期影响 • 风险实现的速度:逐渐、突然、持续变化 • 风险实现时的可见性:公开(开放)、隐蔽(隐藏) • 事件进程:线性、递归(反馈循环)、复合、级联(连锁反应)

2.3 系统性风险的来源

风险的来源,也称为“风险因素”或“风险驱动因素”,是单独或组合导致风险产生的元素(例如事件、组件、行为者及其意图或活动)(例如模型盗窃或广泛的网络漏洞)。以下是特别相关的系统性风险来源:
2.3.1 危险模型能力 这些可能引发系统性风险的模型能力。签署方认识到,其中许多能力对于有益用途也很重要。这些包括: • 网络攻击能力、化学、生物、辐射和核能力,以及武器获取或扩散能力 • 自主性、可扩展性、学习新任务的适应性 • 自我复制、自我改进以及训练其他模型的能力 • 说服、操纵和欺骗 • 长期规划、预测和制定策略 • 情境感知
2.3.2 危险模型倾向 这些是除能力外可能导致系统性风险的模型特征。它们包括: • 与人类意图和/或价值观不一致 • 欺骗倾向 • 偏见 • 虚构 • 缺乏可靠性和安全性 • “追求目标”、抵制目标修改和“寻求权力” • 与其他人工智能模型/系统“勾结”以这样做
2.3.3 模型功能和社会技术背景 这些是除模型能力和倾向外可能影响模型带来的系统性风险的因素。它们涵盖了具有系统性风险的通用人工智能模型的具体输入、配置和背景元素,包括: • 移除防护栏的潜力 • 对工具(包括其他模型)的访问 • 模式(包括新颖和组合模式) • 发布和分发策略 • 人类监督 • 模型渗出(例如模型泄露/盗窃) • 商业用户数量和最终用户数量 • 攻防平衡,包括恶意行为者滥用模型的数量、能力和意愿 • 社会脆弱性或适应性 • 缺乏可解释性或透明度 • 技术就绪度(即给定应用背景下技术的成熟度) • 数据、模型和推断使用中的反馈循环

四、法规分析

欧盟人工智能办公室发布《通用人工智能模型在人工智能法案中的问答》,目的是帮助通用人工智能模型的提供商理解并遵守《人工智能法案》的相关规定,增进GPAI模型提供商对未来将发布的《通用人工智能业务守则》的预期和理解。
欧盟《通用人工智能业务守则》初稿的前两部分对服务提供商提出了严格且全面的要求,强调了透明度、责任和对社会影响的关注,提出对系统风险全面细致的分类法。服务提供商需要从技术、治理政策等多个层面进行调整,以满足合规要求。这不仅有助于确保模型的安全性和可靠性,降低法律和监管风险,还有助于建立用户信任,提升市场竞争力。欧盟人工智能办公室在进行迭代讨论以及吸收来自利益相关者的更多外部意见之后,草案中的措施可能会增加、删除或修改。后续kaamel将持续跟进欧盟的人工智能立法动向。