人工智能产品侵权,使用者有错吗?

2025-09-30 来源:中国社会科学网-中国社会科学报

微信公众号

分享
链接已复制
  随着人工智能技术的不断发展,在家居、出行、医疗等众多领域中,装载人工智能系统的产品正逐渐增多。这类产品的应用场景,也从最初的专业人员与特定领域,扩展至普通民众的日常生活之中。在此背景下,当人工智能产品在使用过程中造成他人损害时,使用者是否仍应像使用传统产品那样承担责任,成为一个亟须探讨的问题。对此,有的观点主张使用者不应承担责任,因为人工智能系统的行为完全由生产者控制;而有的观点则认为,使用者作为实际操作乃至“再训练”主体,应与生产者承担相同类型的责任。下文尝试对此争议予以辨析。
  人工智能系统
  如何影响产品使用者
  人工智能系统可区分为“辅助型”与“替代型”。前者如医疗人工智能诊断或司法材料检索工具,是由自然人在系统辅助下作出最终判断。这类系统的使用场景典型体现在某专业领域专家在使用该类产品时借助其系统作出判断,如医生或法官,他们本身具备专业的判断能力,将人工智能系统作为工具以提升决策效率、减少偏见与随意性。例如,人工智能诊疗系统提供的每个判断都需医务人员再确认才能实施,其作用限于知识辅助和程序优化,并不直接输出确定的结论。相反,替代型系统,如有条件的自动驾驶汽车,则在设计运行范围内完全替代人类执行任务(如动态驾驶),用户仅需在紧急情况下接管。这两类系统的区别对使用者产生不同的影响:辅助型强调使用者的最终决策与责任,而替代型弱化了人的实时干预,从而也使责任承担机制呈现差异。此外,人工智能决策辅助工具并非简单复制人类能力,而是经常会超越人类,处理复杂模式并不以直观的方式推理,这虽然提升了能力,但也可能降低用户的职业警惕,甚至使其盲目追随自动化决策,导致原本正确的判断被机器扭转。
  尽管人工智能系统加装到产品上显著改变了产品的功能特性与用户体验,但并未改变产品使用者在法律上的地位。产品用户无论是个人消费者还是专业领域的专家,并未因使用人工智能产品而转变为生产者或纯粹的受众,其法律身份与责任基础保持不变。生产者仍是决定人工智能系统安全特性的核心行为者,负责设计、出厂、运行维护及危险控制,而用户则需对因自身不当使用造成的损害承担过错责任。不能将用户与生产者置于同一责任层面,因为技术危险源仍由生产者掌控。因此,人工智能的使用并未颠覆现有责任框架,用户的地位依然根植于其使用行为与过错认定,而非技术本身的自主性。
  人工智能系统运用是否
  改变了对使用者过错的判断
  过错判断的核心在于行为人是否违反了合理的注意义务,其认定以“可预见性”为前提。过错即行为人能够预见到自己的行为可能对受保护的法益造成侵害,却未采取合理措施避免该侵害。可预见性并非指个案中当事人的主观能力,而是指向一个抽象的“理性人”标准,即基于当代社会各行各业所积累的知识、经验、能力和勤勉程度,判断行为人是否应当预见风险。可预见性要求行为人对其行为的风险进行积极的调查了解,调查范围需涵盖行为风险所及的合理期间。这里的风险是指某类伤害危险,而非极为具体的损害细节。合理注意义务要求行为人根据风险大小采取相应措施,风险越大,调查了解义务越重。总之,过错判断的基本原理是通过理性人标准和行为风险的可预见性,衡量行为人是否尽到了合理的注意义务。
  人工智能的介入为使用者过错判断带来了新的挑战。人工智能系统在产品中的应用改变了传统的决策过程和行为风险的可预见性。一方面,人工智能的“技术黑箱”特性使其决策过程难以理解和预测,在一定程度上动摇了可预见性的基础。例如,人工智能的错误可能源于其自主学习和统计推理过程,而非使用者的直接行为,这使得传统的可预见性标准难以直接适用。另一方面,人工智能的介入改变了使用者的注意义务内容。使用者不仅需要了解物的性能和维护要求,还需要对人工智能系统的运行机制、潜在风险和限制有所了解。注意义务的重心从使用者对自身行为的审慎注意,转向对人工智能系统的审查、验证和监督。此外,人工智能的风险控制力部分地从使用者转移至提供者,使用者的可预见性和可避免性往往以提供者履行信息告知和提供应对手段为前提。如果提供者未充分告知使用规范或未提供必要的安全更新,使用者可能不承担相应的注意义务。因此,尽管人工智能的介入并未完全颠覆过错判断的基本原理,但过错判断的相关标准仍需在专家和普通人之间作出适应性调整。
  专家在使用人工智能系统时,其过错判断需基于更高的注意义务标准。专家因拥有更多的知识和技能从事更具专业性的行为,因此其注意义务要求高于普通人。在人工智能系统介入后,专家的注意义务内容发生较为明显的变化。以医疗人工智能为例,医师的注意义务不再仅限于传统的诊疗惯例,还需涵盖对人工智能系统的审查、监督等,且需要根据医疗人工智能的发展阶段调整其注意义务标准。
  普通人在使用人工智能系统时,其过错判断需基于差异化注意义务标准。普通人的注意义务内容因其使用人工智能的类型、场景和控制力而异。对于辅助型人工智能,使用者仍需参与决策和监督,因此负有较高的注意义务;对于替代型人工智能,使用者的注意义务重心转向系统检查和使用规范的遵守。此外,使用者需按照提供者的指示使用人工智能,包括安装更新、控制输入数据质量和应对系统警示。普通使用者的注意义务还受其身份影响:商业使用者因具有一定的知识和风险控制手段,负有较高的注意义务;非商业使用者(如消费者)的注意义务相对较低,但仍需按预期用途使用系统并对明显风险采取应对措施。需要注意的是,使用者的注意义务并非绝对,需考虑其实际控制力和信息可得性。如果提供者未履行信息告知或更新义务,使用者的注意义务可能减轻。
  展望未来,当下对于产品使用者过错判断的困难,随着人工智能技术的不断发展将逐步得以克服,尤其是在系统可解释性、透明度不断增强的背景下。然而,技术解决能力的提高并不意味着过错判断问题的解决可以一劳永逸。相反,法律框架中关于使用者注意义务的标准也需随技术迭代不断调适。在技术尚不成熟的阶段,设置较低的注意义务有助于鼓励技术应用与推广,而当技术趋于稳定、解释机制日益完善时,则可能要求使用者承担更高的监督和干预义务,以平衡行为自由、受害人保护与风险控制之间的张力。
  (作者系中国社会科学院法学研究所研究员)
【编辑:劭贤曼(报纸) 齐泽垚(网络)】