人工智能侵权责任认定的多元进路

2025-09-30 来源:中国社会科学网-中国社会科学报

微信公众号

分享
链接已复制
  在人工智能技术应用范围日益广泛且侵权风险与日俱增的背景下,国内外学者围绕着人工智能侵权责任到底该如何恰当认定展开了激烈的争论。有观点提出应赋予高度智能化的人工智能拟制人格,使其具备独立承担责任的可能;也有观点坚持传统路径强调开发者或使用者的责任;平台义务、混合责任、严格责任和社会化救济机制等方案也不断被提出。不同路径背后的理论逻辑与实践考量交织重叠,使责任认定呈现出前所未有的多维性与争鸣性,也彰显了制度选择与规则设计的紧迫性。
  人工智能侵权责任的
  主要认定路径
  第一,法律拟制人格路径是最具突破性同时也是最具争议的一种认定路径,其核心观点认为,随着人工智能自主性的增强,应赋予其类似法人或拟制主体的地位,使其能够独立承担侵权责任。有学者认为,人工智能的“自主行为”不完全归因于开发者或使用者,其损害后果若完全由人类承担,既有失公平也不利于责任与行为的匹配。通过赋予人工智能“电子人格”,可以在理论上解决责任主体空缺的难题。
  第二,开发者责任路径主张将人工智能视为产品,将其运行中的风险纳入产品责任的框架。开发者作为人工智能的设计者、制造者,应当对其中可能存在的“缺陷”负责。由于人工智能与传统产品一样,最终都是由人类开发与设计的,其安全性理应由开发者保证。通过产品责任制度,可以最大限度地鼓励开发者优化设计,减少潜在风险。
  第三,用户责任路径的逻辑是“谁使用,谁负责”。用户在选择人工智能应用的场景和方式时,直接影响风险的发生概率,因此应对损害后果承担主要责任。其逻辑基础即行为人承担责任。这一路径的优势在于清晰简明,能够快速找到责任承担者;同时,用户作为直接受益者,也符合“谁受益谁担责”原则,便于司法操作。
  第四,随着人工智能广泛嵌入平台型应用场景,平台责任路径也备受关注。该路径强调平台负有管理义务与注意义务,平台未尽合理的安全保障义务或提示义务的,应承担相应责任。平台掌握了算法运行机制,具备比用户更强的控制力。且平台亦是主要的利益获得者,责任与利益相统一。
  第五,混合责任路径通过对比不同方案的优劣,将责任在开发者、用户与平台之间进行分担。该路径主张根据过错程度、行为主体的控制力大小或利益分配情况划分不同主体的责任份额,符合风险社会中责任分散的基本原则。它避免了单一责任模式的片面性,体现了公平与效率的平衡。
  第六,严格责任路径更多强调人工智能风险具有高度外部性,因此应由相关主体承担无过错责任以保障受害人的利益,并辅以保险或基金机制来缓解严格责任可能造成负担过重的问题。
  不同路径的理论逻辑与困境局限
  上述六种路径立足不同利益需求与价值判断对人工智能侵权责任作了积极回应,为法律应对人工智能风险提供了有益参考。然而这些路径都存在理论的局限性或操作的受限性。
  法律拟制人格路径的优势在于逻辑完整性,既然人工智能能够独立“行动”,便应独立“负责”。在法律与伦理上看似自洽的逻辑却难以落地,更多停留于理论层面。从根本上看,法律拟制人格是社会关系的产物,赋予人工智能拟制人格意味着将法律拟制推向极端,可能会对法律体系的逻辑造成冲击。此外,人工智能本体并不具有独立财产,若需要承担实际责任,则可能缺乏赔偿资金来源。若将所有风险归因于开发者,则明显有违公平,甚至可能掣肘技术创新,对于新兴的技术型中小企业尤为如此。用户责任路径相较其他路径更加直观、指向更加明确。然而在技术高度专业且复杂的情境下,用户对人工智能运行的理解和控制有限,却因此承担人工智能带来的所有后果,确不公允。此外,若责任过度集中于用户也会使得公众对人工智能产品的接受度大大降低,用户对新产品的责任承担存疑,也会阻碍人工智能应用的普及。平台责任路径强调控制力与利益的对等关系,但责任边界的模糊将使其在实践中走向两极。过宽的责任规制可能会让平台承担难以承受的风险从而抑制创新;过窄的责任规制又可能导致平台放任风险,损害使用者权益。混合责任路径体现了平衡的思路,但在司法实践中繁杂的程序可能导致责任分担的无序化。不同主体之间还有可能出现相互推诿的情况,增加了受害人维权的难度。严格责任与社会化救济机制路径提供了新思路,但该路径需要成熟的法律与市场配套机制,否则在现实中将难以推行。
  “风险—控制—利益”的三维进路
  突破上述困境,需要在现有路径的基础上寻求综合性进路,可以考虑基于“风险—控制—利益”构建人工智能侵权责任认定的三维框架,从而实现动态平衡、权益兼顾的规制。
  首先,侵权法不仅仅是补偿性制度,其更深层次的功能在于风险的预防和行为的规制。因此,从风险维度出发,责任应优先由最具风险控制与预防能力的一方来承担。在研发与设计环节,算法安全性、训练数据合法性直接影响潜在风险,开发者应负有最高程度的风险预防义务;在使用环节,用户的场景选择与操作方式直接影响风险或损害的出现,如在禁止使用的场景中强行启动人工智能造成损害,则应当承担相应责任;在运行平台环节,平台通过设置AI运行规则、内容过滤、算法优化等手段,可以大幅度降低风险,因此也应对未尽注意义务的损害承担责任。基于风险维度对责任进行认定,即让责任分担成为一种激励机制,促使各方主动降低风险,而不是被动等待损害的发生。 
  其次,基于侵权法的基本逻辑,责任的承担必须与行为人对行为结果的控制能力相匹配。在人工智能场景中,控制力并非均衡分布:开发者拥有对算法源代码、更新机制的直接控制力,是算法可预测性与安全性的第一责任人;用户的控制力相对有限,尤其在高度自动化的场景下,用户甚至无法理解系统运行逻辑,但若用户在操作过程中存在明显过错(如酒驾使用自动驾驶汽车)则仍应归责;平台在信息流动、数据分享中具有显著控制力,能够决定算法推荐的范围与强度,应承担与此相应的责任。因此,控制维度要求责任分担必须遵循“控制力大小与责任承担程度成正比”的原则,从而避免“强者免责、弱者担责”的制度悖论。
  最后,人工智能应用可以带来巨额经济利益,风险却常常转嫁给社会个体。若责任认定未能与利益分配相协调,便会形成“利益私有化、风险社会化”的局面。例如,某平台通过AI算法推荐获得巨额广告收益,当推荐内容造成用户损害时,若仅由用户承担风险显然缺乏正当性。从利益维度出发,要求责任分担与利益归属相对应。通过人工智能的运行获得主要利益的行为主体,应在责任分担中承担主要责任。这不仅符合分配正义的基本原则,也能促进人工智能产业的可持续发展。
  风险、控制与利益三个维度并非彼此割裂,应当综合运用形成动态平衡。开发者在研发阶段拥有最强的控制力和风险预防能力,且从技术授权中获取直接利益,因此在算法缺陷、数据违规等侵权问题上应承担主要责任。用户若在可控范围内存在重大过错(如明知系统限制却违规使用)则应承担相应责任,但对于不可控的技术风险,可减轻其责任。平台作为算法运行的核心中介,既掌握控制力,又从中获取主要商业利益,应负有较高的注意义务,违反义务则可能承担连带责任、按份责任或补充责任。对超出单个主体承受能力的大规模损害,可以通过保险或基金制度实现社会化分担从而保障受害人权益。这一综合路径避免了单一路径的片面性,也能够在不同主体之间形成责任的合理分担。
  总之,三维进路并非单纯的责任分担方案,更是一种面向未来的治理思路。在人工智能飞速发展的背景下,法律不应仅停留在“事后补救”阶段,而需构建合理的责任分担制度,以正确引导技术发展方向。三维进路所蕴含的“多维平衡”理念,旨在保障受害人权益、激励技术创新与维护社会公平之间寻求动态平衡,从而及时地回应AI技术发展对法律提出的日益迫切的适配需求。
  (本文系国家社科基金项目“算法风险侵权责任研究”(23BFX030) 阶段性成果)
  (作者系福建师范大学法学院教授;福建师范大学法学研究所研究员)
【编辑:劭贤曼(报纸) 齐泽垚(网络)】