人工智能监管立法趋势前瞻

2024-08-13 来源:中国社会科学网-中国社会科学报

微信公众号

分享
链接已复制
  人工智能技术是本世纪最重要的技术创新之一,如何对其进行法律规制,考验着各国立法者的智慧。任何新兴技术发展都面临控制风险的难题。监管者控制风险的同时,往往会给技术发展套上枷锁。为把握好新技术带来的风险与收益间的平衡,必须立足于以下价值立场展开制度设计。其一是私权保障。在人类文明史上,新兴技术往往会对既有权利格局造成冲击。人工智能对私权保障带来挑战,表现为机器具有一定的智能性和自主性,人机混同下不能直接析出人工的作用成分,私权侵害变得更加隐蔽性和规模化。其二是国家安全。数据跨境流通时,各国面临着重要数据、隐私数据泄露以及算法模型参数泄密等风险。其三是产业发展。各国正面临经济增长放缓的困扰,而人工智能技术当下最有希望成为推动新一轮经济驱动的力量。以上价值的权衡将影响规范出台的密度、频率以及权利保障的方式。
  各国人工智能监管现状比较
  在全球范围内,人工智能技术的发展并不均衡。一些国家是技术的主要引领者,一些国家紧随其后,还有一些国家主要是作为技术应用产品的消费者。这决定了不同国家会采取不同的人工智能监管立场。纵观当今的人工智能技术产业发展格局,中国、美国和欧盟已然构成“三足鼎立”的局面。
  美国的监管特点是内部对象和宽松规范。应当承认,美国在人工智能领域具有全球领先的地位。算力方面,以英伟达公司为代表的芯片公司独占高端芯片的生产市场;数据方面,其优势主要源于英语世界的影响力和海量语料;算法方面,ChatGPT以及之前的深度学习算法框架BERT、PyTorch等均出自美国公司。美国是人工智能技术的输出国,但是其技术优势主要集中于OpenAI、微软、谷歌、Meta、英伟达等少数公司。美国人工智能监管的对象相对集中,一旦新设公法或者私法义务,或者对违法事件作出处罚,矛头都直指那几家巨头公司。因此,美国的监管者一方面需要考虑如何保持巨头公司在人工智能领域的先发技术优势,另一方面也会受到巨头公司的游说影响,故采取相对宽松的监管政策。
  欧盟的监管特点是外部对象和严格规范。相对美国而言,欧盟不具有人工智能领域的技术优势,因此欧盟各国更多是作为人工智能技术和产品的输入地存在,基本呈现出“本国公民作为下游客户和消费者,美国公司为之提供技术和服务”的产业格局。在此背景下,实施人工智能领域的监管,欧盟是以外国公司尤其是美国公司为规制对象的,其所保护的是本国公民的私权利益和作为技术输入地的国家法益。欧盟当前处在技术竞争的下风,这是理解欧盟的人工智能监管政策时必须具备的基本认知。
  中国的监管特点是借鉴比较法经验,追踪前沿技术并针对性立法。我国立法最为重要的借鉴对象是欧盟相关法律,2018年欧盟出台《通用数据保护条例》(GDPR)之后,我国于2021年出台了《个人信息保护法》,后者的很多内容都学习借鉴了前者。当前,我国已经在人工智能领域形成了初步的监管规范体系,包括《个人信息保护法》《数据安全法》《互联网信息服务算法推荐管理规定》等不同层级的监管依据。若考察这些规范出台时的背景会发现,它们大部分是针对当时的前沿技术热点而制定的。最为典型的例子是,OpenAI发布ChatGPT数月之后,我国就颁布了《生成式人工智能服务管理暂行办法》。
  探寻我国人工智能监管立法方向
  在数字法领域,过度依赖域外立法经验必然是行不通的。改革开放后的一段时期内,我国立法对于域外法借鉴较多,存在以下背景。其一,我国属于后发国家,发展经济所采取的工业模式基本与欧美类似,我国的城市组织框架、工作和生活方式逐渐在向其靠拢。其二,当时处于全球化浪潮之中,我国需要通过进出口拉动生产和经济,因此需要构建一套能够与西方对话的规则语言。其三,我国当时处于社会治理规范转型时期,自身的法律规范还有许多空白之处。然而,数字文明是和工业文明同等重要的划时代节点,亦步亦趋的立法模式在数字法领域并不可取。
  当前,人工智能领域的国际竞争日趋激烈,基于不同的国情和立场,人工智能监管必然具有国别性差异。我国要走独立自主的人工智能监管立法道路,具体应考虑以下几个方面。其一,我国的人工智能技术发展面临国际围堵的严峻形势。在算力方面,我国受到美国最新一版《芯片法案》的限制,已经出现高端芯片采购困难的困境。在算法方面,以ChatGPT为代表的生成式大模型出现非开源化趋势。其二,我国的人工智能技术的开发和应用主体主要是国内公司,包括传统的互联网企业、专门从事人工智能产业的企业和高校科研院所等。其三,在制定人工智能监管政策时,必须将国家安全放在重要位置。
  今后,在我国人工智能监管立法中,应关注以下重要议题。一方面,主体的权利边界与归属问题。我们需要尽快厘清算法的开发过程和输出结果中的各项权益分配和主体关系。其中,存在热议的主要有两项:其一,用于算法训练的数据所承载的权益及分配。理论界对于数据权属有数据财产权说、数据资产说、有限产权说等不同观点,主流观点认为数据财产权说不符合网络信息社会发展的需要,可能产生数据垄断等巨大的外部性。但对于数据权益如何正面定性及分配的问题,至今仍无定论。其二,人工智能生成的内容在主体权利间的分配问题。人工智能具有一定的创造能力,但是其创造能力是基于输入的语料,这些语料可能是具有版权的信息。如何定位机器学习和人工学习的差异,机器如何使用他人具有知识产权的知识属于合理使用,侵权边界如何认定等议题,已成为知识产权领域面临的时代命题。
  另一方面,人工智能侵权如何归责问题。算法决策造成的侵权归责,至少有四方面内容有待明确,即应当向谁进行追责?采用何种追责原则?如何向适格的法律主体归责?责任承担形式为何?这些问题会直接影响侵权归责的合法性与合理性。其一,应当向谁进行追责。关于人工智能侵权的责任主体,存在两点争论:(1)自动化决策的人工智能能否独立承担责任。(2)法律主体之间的责任如何分配。人工智能应用领域涉及的法律主体包括技术开发者、服务提供者和使用者,对于相关责任如何在三者之间进行合理分配的问题,学术界尚未形成共识。其二,采用何种追责原则。不同类型人工智能的风险不同,应用领域也有差别,技术研发者、服务提供者往往承担差异化义务,以上因素导致难以适用统一的追责原则。其三,如何向适格的法律主体归责。人工智能主要通过“人机交互”的方式,在具体场景中进行应用,所以要向适格的法律主体归责,必须通过司法证明厘清人机分工,确定人工介入的行为是否直接属于法律上的不法行为。其四,责任承担形式。责任承担形式是人工智能侵权归责绕不开的一个问题,这关乎责任最终如何落实以及产生何种效能。
  (作者系浙江大学光华法学院特聘研究员)
转载请注明来源:中国社会科学网【编辑:程纪豪(报纸)贾伟(网络)】