近年来,以ChatGPT和DeepSeek等为代表的国内外生成式人工智能的崛起,在技术层面引发颠覆性变革,也给现行侵权责任体系带来新挑战。既有的监管规则试图在传统侵权法框架内厘清其责任归属,将应用环节简单划分为“提供”与“使用”,并以技术服务提供者作为核心规制对象,但随着技术日益深入多元产业场景,这类“二分法”思维明显不足,亟须跳出既定学术范式和监管框架,重新审视人工智能侵权的责任认定逻辑。
责任主体“三分框架”的扩展
现行《生成式人工智能服务管理暂行办法》沿用“提供者”和“使用者”的二元责任主体结构,然而在产业深度融合背景下,这一分类难以覆盖各类主体。生成式人工智能输出结果受到训练数据质量、算法架构、实时调取数据、用户指令等多因素影响,特别是部署者即通过接口调用、本地部署、系统集成等方式将基础模型适配于具体场景的主体——已成为影响输出内容的关键一方。部署者一方面是人工智能的使用者,另一方面又利用人工智能提供更精细的专业服务。主体分类的简单化导致责任义务范围及合理注意义务标准模糊,进而影响责任归属判定。如金融机构利用大语言模型开发智能投顾产品,在此过程中通过自有客户数据对模型微调,并嵌入风控逻辑。若生成的投资建议导致客户严重损失,此时责任是由原模型提供者还是部署者承担?显然,部署模型并对其场景化适配的金融机构,其角色远超出纯粹“使用者”范畴,而更接近共同控制者的身份。人工智能输出的结果受模型和数据共同影响,其责任归属也应按照过错程度合理分配。
因此,有必要确立三类责任主体:服务提供者(开发并供应基础模型)、部署者(场景适配和系统集成)和使用者(最终生成内容的使用)。法律依据其实际控制力和影响力重构义务与责任,而非僵化固守传统分类。
过错认定困境及其化解
生成式人工智能的侵权行为在过错认定层面遭遇障碍,核心矛盾在于“算法黑箱”与法律归责所需可解释性之间的张力。传统侵权法要求对行为人主观过错进行判断,但多个责任主体、算法决策的不透明性、随机性使故意或过失的认定极为困难。
为此,可考虑通过以下路径缓解该困境:首先是算法透明度的制度推进。监管机构未来可通过规则指引,要求服务提供者和部署者公开基础算法的设计原则、训练数据的类型及可能的偏差范围,并提交算法备案和透明度报告。其次是行为对比标准的引入。通过将生成式人工智能的内容输出与同类系统或在相同情境下“合理人”的预期行为进行比对,间接推断其是否存在过错。最后是历史行为分析。借助系统日志和历史输出记录,审查其是否曾出现相似侵权内容,或是否已通过反馈机制进行过修正。如某模型多次输出侵权文本却未被修正,可推定服务提供者存在过失。这些方式未必能彻底打开“黑箱”,但基本可在现有技术条件下建立相对合理的过错推定框架。
共同侵权与连带责任的
适用与限制
在多元主体参与的内容生成链条中,单一主体往往难以独立导致损害结果。尤其在生成式人工智能深度嵌入学术研究、金融或医疗等各专业领域时,其行为可能涉及算法偏差、数据污染、部署不当、恶意使用等多重因素。例如,某在线医疗咨询平台使用大模型提供初步诊断建议,因模型过度依赖已有历史数据,导致对特定人群的心血管病风险评估连续出现错误,引发多起诉讼。在此类案件中,基础模型提供者、本地化部署的医疗科技公司以及最终使用该生成内容作出简易诊断的平台,均成为共同被告。此时,传统单独责任模式在此类结构性侵权中难以适用。对此,应更多适用共同侵权与连带责任制度,尤其在部署者调取外部数据接口、修改模型参数,或使用者恶意诱导生成侵权内容等情形中。一旦服务提供者或部署者明知或应知风险却未采取合理防范措施,则可能构成共同侵权。
我国《民法典》第1168条至第1175条为多数人侵权提供了丰富的制度资源,可针对生成式人工智能场景进行适配化解释。例如,若多个生成式人工智能相关责任主体无意思联络但分别实施侵权行为造成同一损害,且各行为均足以造成全部损害的,应适用连带责任(《民法典》第1171条)。若二人以上分别实施侵权行为造成同一损害,能够确定责任大小的,各自承担相应责任;难以确定责任大小的,平均承担责任(《民法典》第1172条)。在生成式人工智能侵权中,由于输出内容的多因性,往往更符合《民法典》第1172条的按份责任情形,但若某一主体(如部署者)对输出内容具有决定性控制,则仍需承担主要责任。
不过,连带责任的适用应审慎,避免挫伤创新企业的积极性。例如,模型被某第三方部署于自动化新闻写作并生成大量虚假信息,原始开发者是否应承担连带责任?从技术可控性和经济效率角度,除非原模型存在明显设计缺陷或已知漏洞未修补,否则不应过度追溯至原始开发者。总之,侵权责任界定应在鼓励企业创新与保护社会公益间找到平衡点,避免使开源模型开发者陷入无谓讼累。
免责事由的转型
近年来,一些学者主张生成式人工智能可完全适用传统网络服务的“通知—删除”规则,但学者可能忽视了生成式人工智能内容生成主动性及其不可预测性的差异。以人工智能绘画软件平台为例,用户通过输入文本提示词生成肖像图片,若用户故意输入他人姓名及诽谤性描述,诱导人工智能生成对应图像,系统很可能输出侵权内容。此时,若仅因人工智能绘画软件平台接到通知后删除图片就完全免责,显然无法弥补对受害人人格权的损害。
因此,应当构建有限度、分层级的免责机制,重点考量“合理控制能力”和“技术可行性”。首先,若服务提供者或部署者能证明已采取当前技术条件下一切合理措施(如数据清洗、合规过滤、风险提示、实时监控等),仍无法避免某些生成的内容侵权,可部分或全部免除责任。其次,及时修正与反馈机制的有效性。若责任主体证明在接到通知后及时删除侵权内容或调整模型,可作为减轻责任的事由。最后,合规体系的有效性作为免责考量因素。技术研发企业若能证明自身已建立完备的合规流程并严格遵循行业标准,在发生无法预见的侵权结果时应予以责任减免。如企业在大模型中引入“生成溯源”技术,对关键输出提供数据来源标注,可以极大降低虚假信息和版权争议的风险,这类技术创新应成为减免责任的重要考量因素。
(作者系中央财经大学法学院教授、金融科技法治研究中心主任)