摘 要:人工智能的法律治理正处在规则形成期。基于风险的法律治理路径的“简单化”与人工智能法律治理需求“复杂化”存在矛盾,我国既有立法实践进行的本土化改良仍无法克服其固有局限。随着我国人工智能法律治理进入系统集成阶段,围绕实现人工智能高质量发展和高水平安全良性互动的治理主旨,要引入适应性治理理念统筹安全发展,应对人工智能多重属性构成复杂系统的治理需求,并高度容纳技术发展的不确定性和未知前景。在此基础上构建具有适应性的人工智能法律治理框架、方案、工具,拓展形成符合我国本土制度环境、技术产业基础与发展目标的法律治理路径。
关键词:人工智能立法;人工智能风险;分级分类;关键人工智能;适应性治理
作者张凌寒,中国政法大学数据法治研究院教授(北京100083)。
引言
全球范围内人工智能治理正在经历从理念、原则、伦理到法律制度建构与实施的重大跃迁。全球立法程序中提及人工智能的次数从2022年的1247次增加到2023年的2175次,近乎倍增。在这一过程中,亟待形成的共识是通过法律制度明确人工智能立法的调整对象、提供可操作的规范路径。2024年8月开始实施的欧盟《人工智能法》采用了基于风险的路径(Risk-Based Approach)。作为全球最受关注的首部人工智能综合性立法,正在对各国立法产生不同程度的示范效应。
尽管世界各国对人工智能的战略意义有着广泛认同,但各国法律治理路径的选择不仅深受各自不同政治制度、经济环境、法律文化方面的影响,同时也取决于各法域中法律与政治、经济、技术等其他治理手段的互动关系。欧盟《人工智能法》选择基于风险的法律治理路径主要源于其自身发展定位、现状和目标,一是与其数字治理法律制度一脉相承,如《通用数据保护条例》就采取了基于风险的法律治理路径;二是欧盟数字技术产业发展相较美国与中国滞后,市场消费能力较强,法律治理对象主要是进入欧盟市场的外国企业,在体现兼顾发展与安全的同时,更着重从安全角度切入,格外强调保护欧盟公民免受技术造成的基本权利侵害;三是欧盟近年来借助数字治理立法在全球多次实现了规则引领效果,也试图通过人工智能立法重现“布鲁塞尔效应”。
与这些反思主要关注风险治理的制度研究不同,本文将深入治理理念层面,提出风险治理理念已经无法有效实现我国人工智能高质量发展和高水平安全的主旨,应在人工智能法律治理中引入适应性治理理念,以容纳技术发展带来的高度不确定性与未知前景,并在此基础上,进一步提出以适应性治理理念统筹发展和安全,立足人工智能多重属性,构建体系化治理框架、优化分级分类方案、升级制度工具箱,实现人工智能法律治理的路径拓展。
一、基于风险的法律治理路径的理论与现实困境
风险社会理论中,风险具有不确定性,法律需应对人类社会各个子系统之间的联动效应,构建应对风险的制度以追求“可接受”的安全目标。基于这一理论,欧盟理事会提出,要遵循一种明确定义的基于风险的路径,为人工智能引入一套成比例和有效的约束规则。以欧盟《人工智能法》为代表的基于风险的法律治理,其典型路径就是秉承风险治理理念,通过界定评估人工智能风险构建治理框架,以风险程度为标准确定人工智能分级分类方案,并配置相应的风险管理制度工具。但随着制度研究和实践的深入,这一路径逐渐凸显出一些理论与现实困境。
(一)风险无法涵盖人工智能的广泛影响
基于风险的法律治理路径以风险为制度体系设计核心,无法涵盖人工智能对社会生产生活及相应法律关系等带来的广泛深远影响。
第二,风险“不确定性”无法涵盖人工智能的实在危险。风险是基于经验被有意识建构的概念,用以预防未来可能的损害。危险意味着事件与损害之间确定或可推定的因果关系,而风险难以用单一线性的因果关系来解释。因此,对于实在危险的处理方式是“确证”(identification),而对于风险的处理方式是估测(estimation)。这类实在危险往往更容易在法律制度设计中被界定为风险,因为它们是聚合性的,且特别难以因果追溯至责任人或实体。如对人工智能训练数据集偏差导致的偏见与歧视,应当界定为实在危险,以避免风险泛化导致规制资源分散或者将风险治理成本作为技术发展负担分配给社会其他成员。
(二)法律治理框架与技术特性存在脱节
人工智能法律治理的有效性取决于能否适配人工智能的技术特性。正因人工智能兼具多种技术特性,使得其他类似技术的基于风险的法律制度难以直接移植适配。
如有观点提出,人工智能与互联网都可以被归为信息通信技术(ICT),作为监管对象的业态都是提供“信息服务”,鉴于互联网信息服务通常风险较低,人工智能为便利用户的其他服务应用带来的风险也相对可控,所以可移植互联网的风险治理模式,如借鉴互联网早期治理中,注重发挥非政府机构作用,由公共部门把一定权限委托给私营部门进行合作治理。但是,互联网所涉及的网络意识形态、关键信息基础设施等国家安全问题均是在其发展到一定规模后才逐步显现,而人工智能则与其不同。人工智能从诞生之初就与国际竞争、国家安全密切相关,其法律治理路径必然有所差异。
亦有观点认为,人工智能与核能都是军民两用技术,可能构成全球灾难性风险。如联合国秘书长古特雷斯和OpenAI首席执行官山姆·奥特曼都曾提出“建立一个类似国际原子能机构……来监管人工智能”。但是核能风险的治理手段亦无法直接适用于人工智能。一是因为人工智能的生产资料与传播形态是无形的,尤其是开源模型可轻易获得,使得其难以像核能的生产资料一样受到有效管制。二是核能带来的收益可以经过风险衡量被放弃,但人工智能应用范围广泛且影响各国未来科技竞争态势,在风险并未确知的情况下,不可能被各国严格限制研发使用。
由此可见,人工智能的技术特性使其既具有互联网的广泛性、赋能性,又具有类似核能技术作为基础设施对国家安全的重要影响,决定了其法律治理路径在设计之初就需兼顾发展与安全目标。各国立法实践中,无论是美国加州《前沿人工智能模型安全创新法案》未获签发,还是中国正式公布的《生成式人工智能服务管理暂行办法》(以下简称《暂行办法》)相较于征求意见稿,明显充实了促进发展相关的制度安排,都可以看到立法者既出于国家安全考量意图严格监管,又担忧影响人工智能产业创新发展的矛盾心态和法益权衡。由此,基于风险的相似科技治理经验可能提供类似场景下的制度借鉴,但势必无法为人工智能的复杂技术特性提供全面系统的有效制度供给。
(三)分级分类标准模糊且难以精准衡量
基于风险的法律治理路径通常以风险程度作为分级分类标准,但尚未形成有说服力的分级分类方案。尤其是人工智能基础模型的通用性日渐显现,更加凸显出与传统的场景化规制存在不相适配的问题。
第一,人工智能风险内涵模糊难以清晰界定。一方面,风险内涵不明确,绝大多数治理框架只是泛泛使用了“风险”概念。如国际电子电器工程师协会(IEEE)在《人工智能设计的伦理准则》(第2版)中将减少风险作为道德准则之一,却未进一步定义风险。另一方面,各类异质风险混杂且难以通约。人工智能风险不仅包括技术缺陷导致的安全风险,还包括技术应用不合理、技术使用者管理措施不到位、人为恶意使用等引发的风险。这些异质风险来源不同,并难以通过风险评估制度等通约。
第二,人工智能风险难以实现法律治理要求的精准衡量。风险兼具事实陈述和价值主张,且人工智能服务和应用在不同领域运行,风险定性时涉及多个维度的价值判断。正如新加坡监管部门所指出,风险“即使在一个国家内部,根据人工智能的部署地点也会存在很大差异”。故传统的风险监管多用于交通事故、食品质量、环境保护等适用精算方法的领域,但人工智能风险难以精准衡量,进而导致传统风险监管的适用困难。
第三,基于风险的分级分类标准普遍受到价值观和政治判断影响。如对于欧盟《人工智能法》的风险分级,欧盟有学者直言,认定部分人工智能具有不可接受的风险,本质上是未经风险评估的价值陈述和政治判断,这更多是以象征性的姿态来展现欧盟与美国、中国的区别。典型如其中规定的具有不可接受风险的人工智能应用,包含社会信用评分体系和远程生物识别应用,明显源于对中国相关制度和社会治理实践的一贯误读。
第四,人工智能基础模型的通用性,难以在分级分类中处理“系统性风险”与“场景化规制”的关系。在数据、个人信息等法律制度构建中,场景化规制能精准施策于具体风险并被普遍确立为法律制度。其逻辑在于,技术风险高低取决于特定“用况”(use case)。然而,人工智能基础模型具有显著通用性并形成分层业态,美国加州《前沿人工智能模型安全创新法案》未获签发的原因之一即难以处理风险场景化规制与人工智能通用性的关系,立法者直言,“风险监管离不开场景”。
(四)法律治理制度工具的有效性存疑
目前人工智能治理中几乎所有制度工具都可以被称为风险监管,因为各类工具都可用于预防或减轻风险。但究其规律,相关制度工具逐渐递归为两类:一类是通过评估或测评来验证安全性;另一类是在设计阶段就确保大模型与人类最佳利益一致,实现价值对齐。鉴于价值对齐尚难以转化为法律制度,故实践中通常聚焦于各类事前的评估或测评制度,如要求高风险人工智能系统投放市场前建立“合格评估制度”等,也引发了诸多质疑。
一方面,缺少事中管理和事后责任制度的反馈机制。单纯侧重事前风险评估,不仅会使用户权利难以得到救济保障,还会使事前风险评估所需的实质性标准无法得到反馈而流于形式。同时,目前的事前风险评估多由企业主导,更多要求遵循流程,而较少依赖实质性标准。如美国要求大型企业在开发特定浮点算力标准之上的大模型时,与政府共享安全测试的结果。鉴于历史上大型企业销售烟草、石棉、含铅汽油和其他化石燃料活动中淡化产品风险的记录,可以预见,基于风险的以评估和测评为主的制度预期难言乐观。
另一方面,制度工具的自身有效性有待充分验证。从“红队测试”与“基准测试”等代表性制度工具看,前者通过模拟对抗性用户发现模型漏洞,后者则通过问题和答案的数据集评估性能与安全性。事实上通过测试并不意味着安全,具有强大能力的基础模型已经被发现有欺骗行为,故以测评来确保安全被指“像训练一个顽固的纳粹分子永远不要透露他的纳粹观点”。
综上所述,基于风险的法律治理路径与人工智能治理的现实状况、复杂需求并不适配。构建科学合理的我国人工智能法律治理体系,需要对基于风险的法律治理路径的困境提出有效解决方案。而在讨论更优路径之前,首先需要厘清我国治理主旨和立法实践经验,为制度体系的构建夯实本土化基础。
二、我国人工智能法律治理的主旨考量与立法实践
探寻我国人工智能法律治理路径,既要对通行的基于风险的路径作出共性化评估,也需要依据本土制度环境与技术产业基础进行自主化分析。与传统领域立法不同,我国人工智能法律治理几乎与美欧等国同步“并跑”,甚至在一些具体制度上实现了“领跑”。从治理主旨的本土考量出发,在基于风险的法律治理路径的基础上,我国在治理理念、治理框架、分级分类方案与制度工具方面一定程度上有所改良。但随着我国人工智能法律治理进入系统集成阶段,其局限性也已逐渐显现。
(一)我国人工智能法律治理主旨的本土考量
人工智能法律治理的主旨,本质上取决于国家政治、经济、社会、文化、生态等制度环境,取决于国家的发展阶段以及对人工智能的价值认知。正如相关研究指出,社会经济规制是意识形态策略和更具物质性的硬性策略相互作用的结果。以欧盟为代表的基于风险的法律治理路径产生于欧盟特定的政治经济制度土壤,具有其合理性,但无法照搬至中国。基于我国制度环境、技术产业基础与发展目标,明确法律治理主旨,是制度体系构建的起点。
人工智能作为一种新质生产力,其主要功能如同历次科技革命一样,在于推动经济社会的发展和人类福祉的提升。即如人类发明了汽车、飞机等交通工具,在获得便利的同时需避免其给生命财产安全带来风险。人工智能治理目标是人类既充分享受智能革命成果,又确保其安全运行。比较诸多治理手段,一方面,法律治理与政治、经济、技术等手段相互配合各有侧重;另一方面,法律治理更具有根本性、稳定性、可预期性等特点。法律制度承担维系生产关系、经济结构、社会秩序稳定的作用,而且必将随着生产力、生产关系的变化而发生变化。故人工智能法律治理是否具有科学性和合理性,需要置于其所在国家经济社会发展的整体场景中全面考量。
欧盟选择基于风险的法律治理路径,强调以安全为主旨,主要基于其自身考量。首先,与其全球竞争战略相关联。欧盟委员会意图通过人工智能监管叙事将欧盟共同市场打造为 “道德的”和“可信任的”人工智能产品供应者。对内寻求保护其公民与企业避免因全球化产生损失,对外力求占领全球高质量细分市场,并推广其监管标准以形成统一市场和更有利的竞争环境。其次,因产业发展落后于美国与中国,立法指向并非本土企业,故采用基于风险的法律治理路径对产业发展顾虑较少。欧盟委员会发布的《欧洲竞争力报告》显示,全球50大科技公司中只有4家是欧洲公司,其余则大部分来自美国和中国。
我国人工智能法律治理的主旨应当体现当下中国对人工智能的价值认知。首先,中国独特的“世界领先的追赶者”技术产业生态位,决定了法律治理必须高擎发展旗帜。尽管我国人工智能能力稳居世界第一梯队,但在技术创新上落后于美国且面临严峻“卡脖子”难题,在产业发展上也与国际科技巨头存在明显差距。人工智能基础设施、研究方面的显著增长主要由美国的投资推动。全球人工智能大模型数量美国位居第一,占比44%,中国位居第二,占比36%。同时,美国还高度警惕我国的技术产业追赶,并为此出台了大量封锁制裁措施。人工智能已经成为涉及我国政治、经济、科技发展的复合型战略问题,不发展是最大的不安全,中国人工智能的法律治理对促进人工智能高质量发展尤为迫切。
其次,人工智能应用已广泛介入我国经济社会发展的方方面面,与我国政治安全、经济安全、军事安全、文化安全、社会安全等息息相关,成为事关高水平安全的重要领域。人工智能立法的价值位阶调整必须坚持总体国家安全观,将人民安全的宗旨贯穿到立法价值要素关系调整的各个环节中。人工智能法律治理体系的构建,需要严守安全红线与底线,充分认识和评估技术产业发展伴生的安全风险,在事前、事中和事后全周期确保人工智能安全、可靠、可控。
《决定》提出“实现高质量发展和高水平安全良性互动”。围绕服务国家重大战略需求,我国的人工智能法律治理亦应以此为主旨,在法治轨道上促进和规范人工智能健康发展,增强我国在人工智能时代的全球竞争力。
(二)我国人工智能法律治理的前期改良与局限
中国人工智能法律治理肇始于2017年国务院印发的《新一代人工智能发展规划》,确立了2030年建成完善的人工智能法律法规、伦理规范和政策体系的目标。在制度演进过程中,我国一方面吸收借鉴了基于风险的法律治理经验,另一方面从实际出发,明确了发展与安全并重的主旨,进行了治理理念、治理框架、分级分类方案和制度工具等方面的改良。从立法实践历程可以概略作出如下区分:
在2017年到2021年的探索阶段,我国以《网络安全法》《数据安全法》《个人信息保护法》三部相关法律作为基础,确立了科技立法的发展与安全并重主旨,建立了对网络设施、数据、个人信息等人工智能相关要素的法律规制体系。同时,构建了前沿技术与服务应用的双主线治理框架。对技术治理以伦理规范为主,制定《新一代人工智能伦理规范》。将服务应用作为人工智能(算法)法律治理的主要对象,出台《互联网信息服务算法推荐管理规定》,对生成合成类、个性化推送类、排序精选类、检索过滤类、调度决策类等五类算法服务应用作出全面规定。
在2022年到2023年的定向阶段,我国进一步明确了人工智能法律治理发展与安全并重的主旨,治理框架日趋清晰完善。以《互联网信息服务深度合成管理规定》和《暂行办法》两部部门规章为代表,以信息内容安全为治理重点,将法律治理从服务应用推进到技术层面,生成式人工智能分层治理框架初现端倪。此外,有关智慧司法、自动驾驶等具体应用场景的制度规范相继出台,人工智能技术标准体系逐步建立,地方立法纷纷涌现。
随着技术产业的飞速发展和治理需求的进一步复杂迫切,2024年以来,我国人工智能的法律治理进入系统集成阶段。《决定》明确“完善生成式人工智能发展和管理机制”和“建立人工智能安全监管制度”。全国人大常委会2024年度立法工作计划将“人工智能健康发展等方面的立法项目”列入预备审议项目,国务院2024年度立法工作计划提出“预备提请全国人大常委会审议人工智能法草案”。这标志着以实现高质量发展和高水平安全良性互动为主旨,以高位阶的人工智能专门立法为引领,相关法律、行政法规、部门规章为主干,国际规则为协同,伦理规则和技术标准为补充的人工智能法律治理体系正在加快建设中。在此背景下,前期我国人工智能法律治理相较基于风险的法律治理路径虽有所优化改良,但固有局限仍日渐显现。
其一,在治理理念上,虽然强调发展与安全并重,但仍以风险管控作为底色。现有的人工智能法律制度中的发展条款多为原则性、鼓励性条款,政策色彩较浓。以《暂行办法》为例,尽管正式公布文本大幅增加了促进发展的条款,如“鼓励生成式人工智能技术在各行业、各领域的创新应用”等,但并非实践中易于落地实施的刚性规则。相较而言,信息内容安全、网络安全、数据安全、个人信息保护等相关条款则更为系统,并作出了明确的权利义务安排。
其二,在治理框架及其底层的属性认知上,虽然形成了前沿技术与服务应用的分层治理框架,但尚未形成对于人工智能治理复杂体系和复杂底层属性的全面认知。如我国《人工智能安全治理框架1.0》重在明确人工智能内生技术与服务应用维度的安全要求。同时,尽管在《暂行办法》中提出“推进生成式人工智能基础设施建设”并建设公共数据池、公共算力等要素,将对人工智能属性的认知扩展至基础设施,但这些认知尚不系统,还无法有效解决基于风险的法律治理路径中存在的“风险无法涵盖广泛影响”“法律治理框架与技术特性存在脱节”等问题。
其三,在分级分类方案上,虽然吸纳了基于风险的分级分类思路,如在五类算法服务应用中率先对具有较高信息内容安全风险的生成合成类算法单独规制,进而在制度探索中形成了独特的“生态治理”主张,以及包含服务应用风险、结合数据维度(如数据重要程度)和主体维度(如用户规模)等更为综合的分级分类标准,但是这些标准仍主要聚焦人工智能服务应用属性,且与数据、算法、主体、场景等分级分类标准相互混杂,亟待形成综合性体系化的分级分类方案。
其四,在制度工具上,虽然建立了契合本土特点的评估测评与透明度制度,但仍需继续完善。尽管我国吸纳了风险治理的评估、测评等制度工具,并进行了本土化改良,如在研发侧将科技伦理审查作为前置条件,要求披露训练数据来源,在服务侧早于欧盟和美国率先规定了生成合成内容强制标识和提示义务,但是,人工智能技术发展未知前景带来复杂治理需求,仍需增强制度工具应对系统性风险和不确定性的能力。
由此可见,我国前期对基于风险法律治理路径的改良尚不能够满足日渐迫切复杂的人工智能治理需求。在系统总结立法实践经验的基础上,有必要拓展风险治理的理念、深化对于人工智能属性的认知,为体系化构建人工智能法律治理制度奠定理论基础。
三、拓展我国人工智能法律治理路径的理论基础
人工智能法律治理需要以习近平总书记关于高质量发展和高水平安全的重要论述为指引,深刻把握“坚持统筹发展和安全,坚持发展和安全并重,实现高质量发展和高水平安全的良性互动”“安全是发展的前提,发展是安全的保障,维护安全和推动发展都要坚定不移”。因此,拓展优化我国的人工智能法律治理路径,在理论基础上,一方面需要将风险治理理念优化升级为适应性治理理念,采用灵活动态策略处理复杂、不确定性难题,更好地实现统筹人工智能发展与安全的治理主旨;另一方面需科学认识、辨析人工智能的多重属性,以廓清人工智能法律治理的体系化基础,应对人工智能广泛深度嵌入社会运行诸多方面的复杂影响。
(一)以适应性治理理念统筹发展和安全
人工智能法律治理应当全面引入适应性治理理念,以解决风险治理理念的适用之困,契合我国实现人工智能高质量发展和高水平安全良性互动的治理主旨。
作为一种新兴的治理理念,适应性治理(Adaptive Governance)的要义是根据外部环境的变化调整治理策略,提高系统的适应能力。这一概念源于生态学,后被扩展以应对高度复杂的社会生态系统(Social-Ecological Systems)问题。因这些问题具有参与者多样性、不确定性和快速变化的非线性特征,尤其如当今世界各类“黑天鹅”事件层出不穷,故适应性治理主要是研究如何在高度不确定性下作出决策。
如前所述,人工智能发展具有典型的复杂性、不可预测性、快速变化等特征,如果继续秉承风险治理理念,与人工智能治理的现实状况、复杂需求难以适配。故应全面引入适应性治理理念,其更加契合之处在于:
首先,适应性治理理念强调实现复杂系统的可持续发展。一是适应性治理重在通过灵活策略处理复杂难题,随着人工智能深度嵌入社会运行,构成具有复杂性、不确定性和多层嵌套等特征的复杂系统,相较于风险治理,能够提供更适用于人工智能治理“复杂化”需求的方案。二是风险治理理念的底层逻辑在于风险造成的不安全感要求国家全方位介入,因而安全问题主导公共决策,取代发展问题成为社会关注的重心,亦成为风险社会理论与法律体系的连接点。而适应性治理理念将采用试错性、包容性、激励性的灵活监管,根据技术特性关注可能的未来发展与功能变化。其与公共管理领域所提出的“弹性治理”有异曲同工之处,共同目标是在确保安全前提下,保证经济、社会和科技具有充分的活力和创造性。
其次,适应性治理理念强调容纳不确定性与未知前景,基于风险的法律治理框架基础上扩展应对能力,为技术发展留足空间。基于风险的法律治理框架主要是基于已知的风险和明确的权利义务规则构建的,而人工智能的创新能力和迭代速度远超既有治理框架的覆盖范围,并不断催生新应用、新场景以及新风险,导致难以应对人工智能的增量风险与未知前景。这些风险可能在设计和测试阶段无法被充分识别和评估,故需在实际应用中进行持续的监控和管理。更重要的是,人工智能法律治理还需面对人工智能技术发展带来的“未知的未知”,即超出人类经验范围与想象力的事件。换言之,尽管最佳策略仍然是防止损害的发生,但在无法杜绝风险又无法放弃技术发展的情况下,强化法律治理的适应性理应成为不二之选,通过制度安排主动为技术发展的未知前景预留发展空间并划定安全底线。
最后,适应性治理理念强调提高治理工具的适应能力。风险治理理念的主旨是对技术创新活动和应用活动进行修正,其预设前提是如果某类技术存在固有缺陷,则在其风险未达到“可接受”程度之前不能直接应用于实践活动。故基于修正主义思路,其制度设计着重在技术应用之前施加禁止性或限制性条件。而适应性的治理理念则着重从事前预防转移到最大限度地减少损害发生的程度、持续时间并确保事后尽快恢复,提供满足适应性、灵活性、包容性的制度工具,继而能够打破基于风险的法律治理路径的修正主义思路固有局限。
综上可见,将适应性治理理念引入人工智能法律治理,并非简单否定风险治理理念以及基于风险的法律治理路径,而是契合“实现高质量发展和高水平安全良性互动”的本土化治理主旨,在其基础上进行优化和拓展。既解决基于风险的法律治理路径“简单化”和人工智能法律治理需求“复杂化”的错配问题,又扩展至基于风险的法律治理路径尚未涵盖的增量风险与未知前景。因此,全面引入适应性治理理念的人工智能法律治理将在法律治理稳定性与新兴技术治理灵活性之间保持平衡,进而在技术产业发展复杂性和不确定性因素明显增加的情况下,应对人工智能带来的全方位机遇挑战。
(二)以人工智能多重属性廓清法律治理体系化基础
基于适应性治理理念,在系统集成阶段确立中国人工智能法律治理框架,还需要科学认识、辨析人工智能的法律属性,廓清法律治理体系化基础。
人工智能的多重法律属性是在不同维度有机生长、交错融合的,应当全面深化对人工智能“前沿技术、服务应用、基础设施、社会生产组织方式”的多重属性认知,特别是辨析其中基础设施、社会生产组织方式的属性,在适应性治理理念统筹下,作为确立科学治理框架、分级分类方案和制度工具的前提和基础。
四、迈向具有适应性的人工智能法律治理
以适应性治理理念为统筹,立足人工智能多重属性,更具优势的我国人工智能法律治理路径已经呼之欲出。相较基于风险的法律治理路径,具有适应性的法律治理实现全过程、动态型的体系化拓展升级,有助于形成体现高质量发展和高水平安全良性互动,适配我国制度环境、技术产业基础与发展目标的法律治理体系。
(一)构建具有适应性的体系化治理框架
适应性的法律治理框架需符合人工智能影响广泛且属性交织的特点,通过清晰的属性界分、明确的治理目标,实现治理框架的体系化设计。若治理框架中缺乏属性维度,则往往会因定位偏差引发与制度工具错配问题,进而造成“药不对症”的制度局限。如前期《暂行办法》征求意见稿受到质疑,主要原因即是将服务应用属性下的信息内容安全治理目标,过多配置给具有前沿技术与基础设施属性的生成式人工智能。其后,《暂行办法》正式公布文本充分吸收了各方面意见,特别是其第二条对规章适用范围的限定,明确体现了分层治理、区分属性予以规范的制度立场,得到了各方的普遍认可。因此,以适应性治理理念统筹人工智能多重属性,即应首在“辨证论治”,设立清晰分层的体系化治理框架。
第一,在人工智能作为前沿技术的属性维度,法律治理应促进科技进步,并防止出现失控性风险等极端情况。即如科学家提出研发人工智能必须防止其自我复制与自我进化等。故相应的适应性治理目标应当正视我国在中美竞争中相对落后的现状,既遵循科技创新的特征规律、促进科技迭代发展,也规制技术研发活动遵循科技伦理、确保技术安全。
第二,在人工智能作为服务应用的属性维度,法律治理应着力促进其在各行业、各领域的创新应用,支持新业态新模式的涌现发展。但同时,应充分考虑相关危害的根源同质性,如技术不成熟、数据质量不高等共性原因,以及规律把握相应新业态新模式的法律关系变化特征,对国家安全、公共安全和公民合法权益提供有力制度保障。
第三,在人工智能作为基础设施的属性维度,法律治理应重在促进投资建设与公平高效利用。随着中央经济工作会议确定“人工智能+”战略的有力推进,人工智能作为基础设施已日渐成为共识。鉴于开展人工智能基础设施建设,势必高度集中生产要素,占用大量数据、算力、能源等公物。故在现阶段,具有适应性的法律治理应适时调整知识产权相关规则、公开数据获取与适用规则,建立公共数据流通利用制度等确保基础设施建设获取足够资源。待未来形成规模后,还应动态构建更加偏重公平高效利用的反垄断、反不正当竞争等法律制度,如要求符合标准的人工智能企业合理行使准公共性管理权力等。
第四,在人工智能作为社会生产组织方式的属性维度,法律治理应面向劳动替代、财富集中等社会变革带来的不利影响。人工智能正在加速劳动职能的替代性、劳动组织的趋向集中以及新兴智能劳动阶级的产生,并将在深层次上催生生产资料、社会财富和技术权力的集中。不同的治理目标与法律制度,体现了不同政治制度与社会体系的立场和选择。在此属性维度上的法律治理,本质上是选择如何分配社会生产变革阶段的发展代价。而我国人工智能法律治理目标中所强调的“高质量发展”,意味着既关心“发展”更关心“质量”,因此,科学设置产品责任、强化新业态劳动者权益保护乃至更深层次加强人工智能时代的人权保障等,都应纳入制度设计予以充分考量。
(二)完善具有适应性的分级分类治理方案
与基于风险的主要以风险程度作为划分标准的分级分类治理方案不同,完善具有适应性的分级分类治理方案,可考虑扩展风险程度标准,结合能力、影响以及属性维度等形成复合型分级分类标准,进而综合评价区分关键人工智能与一般人工智能,并在此基础上对关键人工智能创设更为全面严格的权利义务规范。
聚焦关键人工智能的理论建构,在概念内涵上,其并非等同于高风险的人工智能,而是具有强大能力、重要影响、关键价值的人工智能。在制度外延上,可以包括以下类型:其一,达到一定能力类型与标准的人工智能系统。其二,在重要场景发挥核心功能的,可能对个人的生命、自由、人格尊严等人身权益有重大影响的人工智能服务应用。如在司法领域,应包括辅助作出审判参考但不应包括提供类案检索功能的人工智能服务应用。其三,应用于关键信息基础设施核心功能的人工智能。相较于基于风险程度的分级分类治理方案,基于复合型标准的人工智能分级分类治理方案,特别是着重区分关键人工智能将在以下方面实现创新优化。
第二,适应人工智能技术发展与分层业态,解决风险程度分级分类标准固有的系统性风险与场景化规制的不适配问题。强大的人工智能技术引发了社会对其失控的担忧。2024年数十名人工智能专家签署《北京AI安全国际共识》,提出“任何人工智能系统都不应能够在人类没有明确批准和协助的情况下复制或改进自身”。但显然可能失控的人工智能属于极少数顶尖技术,基于复合型标准能够分别评价人工智能的前沿技术属性与服务应用属性,避免在不同属性中均过于强调技术失控性风险,导致对人工智能整体的负面评价而阻碍其发展。在前沿技术属性上,确保关键领域研发安全可控、守牢安全底线,即可为高质量发展留足空间。而在服务应用属性上,通过场景化规制,即可避免正常合理范围内的人工智能技术产业发展受到阻碍。
第三,在前沿技术属性维度将能力纳入分级分类标准,避免设定浮点算力阈值“一刀切”限制技术发展。欧盟《人工智能法》和美国《人工智能行政命令》都对达到特定浮点算力阈值的人工智能系统施加了更为严格的法律义务,其合理之处在于,高算力意味着高能力以及相应更高的失控性风险,然而失控性风险来自某种具体能力(如自我复制、自我进化),而不必然来自高能力。如果限定特定浮点算力阈值,则类似于为了防止少年伤人就禁止其长高长大,必将抑制人工智能技术的健康发展。鉴于人工智能能力并非线性增长,仅对某种能力进行控制并不影响其他能力的发展,故应在科学共识基础上对人工智能能力进行评估。仅对于可能造成失控性风险的人工智能能力如自我复制、自我进化、情感操纵等采取禁止措施或更为严格的法律控制。
第四,跨属性维度综合判断风险收益,形成对发展与安全的整体性衡量机制。基于风险程度的分级分类治理方案往往聚焦服务应用属性维度作出风险衡量,即难以形成对风险收益的全面认知。如自动驾驶汽车的隐私风险、车辆安全风险被频频提及,构建起公众对自动驾驶产业的主要认知,也使得回应公众担忧成为监管部门的主要决策依据和监管重心。但是其在前沿技术属性维度推动人工智能技术进步,服务应用属性维度减少人为驾驶造成的安全事故,基础设施属性维度推进“车路云一体化”基础设施建设,以及社会生产组织方式属性维度产生就业替代和效率整体性提升,需以整体性衡量机制将以上影响共同纳入考量。如此可摆脱单纯强调风险的简单认知,促进形成发展与安全并重的理性判断和科学决策。
(三)配置具有适应性的制度工具箱
法律治理框架与制度工具选择之间存在紧密联系。从基于风险的法律治理到具有适应性的法律治理,随着治理框架的升级,也相应需要制度工具箱的优化。
产业界与公众往往对于法律制度工具存在一种误解:“治理即是严管”,制度“留白”或“让子弹飞一会”方能够促进发展。这一观点的片面之处在于,制度工具不清则可能放任行为主体逾越法律底线,一旦发生严重后果,反而导致法律约束急剧收紧,在更大范围影响促进技术产业发展的良好生态。制度工具箱包括强制程度不同的规则,尽管人工智能治理中伦理、技术标准等“软规则”占据越来越大的比例,但一般认为刚性规则是其中最值得关注的精髓。适应性制度工具箱的创新之处,是通过调整制度工具箱的配置比例、增加制度工具类型和调整制度工具之间的关系,实现刚性法律制度与治理目标的有机融合,以强调复原力的制度工具扩展法律治理对高度不确定性和未知前景的应对容纳能力。
第二,注重发挥“底线防控型”工具作用效能,相应减少其他事前事中刚性规则适用范围,减轻企业合规义务。鉴于人工智能的创新能力和迭代速度远超既有风险认知,故需要着重发挥“底线防控型”工具所具有的复原力的特征,即出现问题时将危害程度和严重性降至最低的能力,以及事后恢复系统正常运行的能力。典型即法律强制要求的预案设置,包括但不限于应急预案、损害发生后的冗余系统以及事前设置可以阻断技术的“开关”(kill switch)。相较于风险治理的应急预案主要针对特定领域的确定风险,“底线防控型”的制度预案则将确定风险、增量风险、未知前景等一并纳入,既提供容错机制,也强化紧急制动。如可参照核电行业的冗余系统,强制要求某些关键人工智能设置冗余安全措施,即使其中某些措施失效,也可将损害程度降至最低。
第三,积极创制“守法激励型”工具,调整守法激励型工具与刚性义务的关系,在合理范围内设置“承诺与回报”等激励制度。考虑技术与产业的创新目标与现实需求,在主体主动履行各项合规义务的前提下,即可实现“合规减责”。如落实法律规定的安全事件监测与预警共享要求,实施人工智能安全事件报告制度时,可进一步规定相关主体如果主动报告、积极共享并及时采取措施,则可适当减轻事后责任。又如完善风险治理中广受关注的透明度工具,并通过制度设计督促引导基础模型研发和服务商采用透明度更高的技术,以及将透明度义务履行情况作为其法律责任认定的裁量要素等。
此外,鉴于基于风险以事前评估为主的制度工具,往往缺少事中管理与事后责任的反馈循环,故配置具有适应性的法律治理工具,还应通过责任制度和权利救济实现法律治理的事后回馈,以加强制度工具间的协同。有效的责任制度能够为用户提供救济途径,并促进人工智能系统的研发者、部署者与运营者在前端加强对风险的防范,而缺乏有效的问责则会导致事前与事中管理标准无法转化为切实成果。目前法律制度中,损害复原大多依赖于以侵权责任和产品责任为基础的个别诉讼。因此,一方面,需要配套健全行政问责等公共反馈机制,并以刑事追责为兜底保障;另一方面,需要厘清人工智能系统的研发者、部署者与运营者以及用户等价值链行为者间的责任分配,以实现管理闭环中的迅速回馈并保障个体权利救济。
余论
人工智能法律治理的路径既要符合本土制度环境、技术产业发展基础与发展目标,也要满足人工智能治理的复杂需求,并且能够有效应对技术发展的未知前景。本文从更为宏观的视角提出,人工智能法律治理不仅规范前沿技术发展与服务应用运行,也调整人工智能作为基础设施对生产资料与社会资源的集取和分配功能,更需回应人工智能作为社会生产组织方式对社会权力结构和运行秩序产生的深远影响。从这个意义上讲,人工智能法律治理的成效很大程度上影响着经济社会发展的未来走向,而选择人工智能法律治理路径也就选择了相应的未来。
〔本文注释内容略〕
原文责任编辑:李树民 王博