全国普法万里行推进委员会法治文化教育中心主办
主页 > 全民普法 > 生活

人工智能侵权之产品责任适用的边界与路径

2025年11月03日 18:08:55 作者: 程啸 林琳 来源: 人民法院报
字体:

  编者按:

  中国共产党第二十届中央委员会第四次全体会议审议通过的《中共中央关于制定国民经济和社会发展第十五个五年规划的建议》中明确指出,要“加强人工智能治理,完善相关法律法规、政策制度、应用规范、伦理准则”。新时代以来,以习近平同志为核心的党中央高度重视人工智能发展和应用,着力完善顶层设计、加强工作部署,推动我国人工智能综合实力整体性、系统性跃升。如何应对生成式人工智能发展中所提出的相关风险?人工智能侵权行为能否统一适用产品责任?人民法院报特邀清华大学法学院教授、博士生导师程啸,清华大学法学院博士研究生林琳撰写评论文章,敬请关注。

  在当前关于人工智能侵权责任的讨论中,一个争议的焦点就是人工智能侵权行为能否统一适用产品责任?有一些学者认为,为了加强受害人救济、促进风险防范,对于人工智能侵权行为应当统一适用产品责任。笔者认为,在具备相应的条件时,有些人工智能侵权行为确实可以适用产品责任,但并非所有的人工智能侵权行为都可以适用产品责任。

  一方面,人工智能的部分特性并不符合传统产品的规范特征。我国产品质量法第二条第二款规定,产品是指经过加工、制作,用于销售的产品。这一定义下的“产品”通常是指有形动产,即在“加工、制作”的过程中,生产者对产品的质量具有直接控制力。这种控制力不仅包括可以控制产品的生产过程,还包括产品被生产完成后的性质稳定,不会发生生产者不可预期或不可防范的变化。如果生产者缺乏控制产品质量和预防风险的能力,令其承担产品责任就缺乏正当性而且无法实现加强风险预防等目的。考察人工智能的技术特性可以发现,生成式人工智能等主要采用了神经网络、机器学习技术的人工智能的开发者、提供者并不具备此种控制力。这类人工智能输出内容具有不确定、不可预测性,开发者无法像传统产品生产者那样精确控制输出结果,不具有“加工、制造”式的控制力,难以将其直接解释为产品。不少人工智能是通过大量数据的训练和模型的优化来实现功能,其输出结果不仅依赖于初始的设计和编程,还受到训练数据的质量、数量和多样性的影响,开发者、提供者对此往往也难以控制。此外,还存在一些能够在应用中持续自主学习和迭代的人工智能系统,完全可能产生开发者无法预见的变化和输出,更加不符合产品的规范特征。

  另一方面,产品责任偏重于权益的保护而非行为自由,不利于鼓励创新,尤其是在人工智能这一竞争激烈的新兴技术领域,将其普遍适用于人工智能侵权责任是不妥当的。根据我国民法典等法律的规定,一旦某一人工智能应用被认定为“产品”,只要其存在缺陷并造成他人人身、财产损害,受害人就可以要求生产者(开发者)和销售者(提供者)赔偿。这或许会给相关主体施加较重的负担,可能会产生抑制创新的负面效果。虽然有的观点立足于法经济学的角度,认为采取无过错责任有利于救济受害人、降低司法成本,并不必然抑制创新,而是在效率上具有优越性。但是,这种观点缺乏实证支持,不足以提供充分的正当性基础。此外,对于人工智能从业者和社会公众而言,无过错责任相比起过错责任,更可能被误认为释放出安全优先、严苛监管、限制创新的信号。基于当前促进人工智能创新发展、争取国际领先地位的共识,应当谨慎采取此种路径。笔者认为,满足以下两个条件的人工智能侵权行为,才具有适用产品责任的可能性。

  第一个条件是人工智能产品应当具备具体的、特定的用途。只有当某一人工智能具备具体的、特定的用途,比如明确应用于自动驾驶、人脸识别等,才能考虑对该人工智能适用产品责任。首先,具体特定的用途能够增强人工智能性能与风险的可控性。当人工智能系统的应用被严格限定在特定功能领域时,其算法架构、数据输入范围和输出结果的可预测性将增强,开发者可以针对性地进行性能优化和风险预防。例如,与拍照识物等通用图像处理系统相比,医疗影像识别系统的输入内容较为特定,目标输出结果也限于医学结论,因此可以更加有针对性地完善算法、强化训练,提高精度。又如,自动驾驶汽车如果明确仅适用于某些道路、场景,开发者就更可能模拟在这些具体情境下的各种情况,针对性地优化人工智能算法和安全机制。其次,具体特定的用途能够清晰化人工智能“缺陷”认定的标准。产品责任的成立以“产品存在缺陷”为前提。所谓缺陷,指“产品存在危及人身、他人财产安全的不合理的危险”(产品质量法第四十六条)。由于人工智能的技术复杂性和应用场景多样性,缺陷认定必须结合具体的应用场景即用途,方能精确化、客观化,从而具有可操作性。例如,DeepSeek等生成式人工智能大模型若被用于辅助医疗诊断,则输出内容的准确性、医学依据的可靠性将成为核心安全标准;若仅用于普通文本生成,则语法通顺、逻辑连贯可能已满足合理预期。脱离具体用途抽象讨论“缺陷”,不仅可能导致责任认定模糊,而且可能因过度泛化而阻碍技术创新。因此,在开发、提供者未明确其特定用途的情况下,这类人工智能应当界定为服务而非产品。

  第二个条件是人工智能产品应当具备合理可行的质检标准。之所以要求人工智能产品需具备合理可行的质检标准,理由在于:首先,质检标准的合理可行性直接反映出具体应用场景下人工智能输出内容的可控性。如果不存在合理可行的质检标准,说明人工智能应用可能存在输入内容不稳定、预期目标不确定等特征,开发者也难以控制其输出内容的质量。例如,常见的植物识别软件就存在质检困境。由于用户拍摄的植物照片往往角度随意、光线不均、关键特征缺失(如缺少花朵或叶片特写),难以建立稳定可重复的检测标准。若采用实验室条件下的标准植物标本照片测试,结果无法反映真实使用场景;若采用用户实际拍摄的随机照片,又会导致检测结果波动大、不可重现。这种不可控的输入质量使得开发者难以通过技术手段保证识别准确率,因而难以适用产品责任。

  其次,只有理论上存在合理的质检方法,对人工智能适用产品责任才有实践意义。因为产品责任以“产品存在缺陷”为要件,如果将某一人工智能认定为产品,但对其质量并不存在较为明确的标准和检验方式,如何认定是否存在产品缺陷就成为问题;而如果存在理论上合理可行的质检标准,人工智能不符合该标准的,可以认为存在产品缺陷。例如,若某自动驾驶汽车因传感器误判障碍物导致追尾事故,考虑到理论上存在合理可行的质量检测标准及方式(例如“在100米内应识别静止障碍物并触发制动”),可通过标准化重复检测该自动驾驶系统是否符合标准,以判断其是否存在产品缺陷。

  所谓“合理”主要是指质检标准能够科学地反映人工智能的性能,且合乎相关领域的技术发展水平。例如,对于医疗影像识别系统,合理的质检标准应当包括诊断准确率等关键指标,且这些指标的设定应当与当前医学影像学的发展阶段相匹配。“可行”则要求方法具备可操作性、可重复性,以及成本与产品的风险程度成比例。

  需要指出的是,上述两项条件仅是人工智能适用产品责任的必要条件,而非充分条件。换言之,即便某一人工智能产品满足这两个条件,也并不意味着必然触发产品责任。在具体法律适用中,仍需综合考量不同人工智能应用的风险程度、促进创新的政策导向等因素加以判断。

  (作者单位:清华大学法学院教授、博士生导师 程啸 清华大学法学院博士研究生 林琳)


责任编辑: 王嘉兴

关于我们 | 免责声明 | 联系我们 | 版权声明 | 网站公告 | 人员查询 | 法律顾问 | 网站招聘 | 广告服务
Copyright©1999-2020神州普法网 版权所有 违者必究
京ICP备2021023113号 京公网安备 11011502004900号增值电信业务经营许可证 京B2-20213580号广播电视节目制作经营许可证(京)字第22240号
违法和不良信息举报电话:.违法和不良信息举报电话:18600107426| | 商务合作:13011078129 | Email:szkx002@163.com
神州普法网 地址Add:北京市通州区中山路59号 北京ONE25层
邮编P.C. 1000176 | 商务合作:13011078129