生成式人工智能具有自主性、不透明性、不可预测性等特征,这也导致了学界认为人工智能侵权归责需脱离产品责任,理由主要为产品责任为严格责任,生产者难以控制 人工智能运行过程中存在的风险,要求其承担严格责任并不公平;生成式人工智能大多以服 务的形态存在,因此其不符合产品的定义。然而,从法律属性来看,生成式人工智能提供者与网络服务提供者二者存在实质差异。生成式人工智能系统符合产品的定义,产品责任契合生成式人工智能系统多层次、多样态的特征,能够实现与监管的良性互动。在产品责任框架下,开发者与运营者可以类比为产品责任中生产者与销售者的地位,可以根据生成式人工智 能的生命周期、层次属性确定制造缺陷、设计缺陷、警示缺陷、跟踪观察缺陷,确定发展风 险抗辩适用的条件与标准——

作者简介:李雅男,女,河北唐山人。武汉大学本、硕、博毕业。2020年9月起任职于 华中科技大学法学院,现为法学院讲师,主要研究方向为民法、人格权法。
一、问题的提出
人们对于生成式人工智能的性质存在广泛争议,这也决定了人工智能侵权责任的归责面临诸多挑战。就生成式人工智能侵权的归责路径而言,目前学界主要存在两种解决思路:第一种是按照网络服务提供者(internet service provider, ISP)和网络内容提供者(internet content provider, ICP)的区分思路,将生成式人工智能系统提供者解释为网络服务提供者或网络内 容提供者,适用过错责任原则,适用“通知—删除”规则。第二种是按照产品责任,即将生成 式人工智能解释为产品,并认为在其存在产品缺陷时相关主体需要承担产品责任,或者认为 算法产品的开发者承担产品责任。1但是,学界对此归责路径的讨论并不充分,且大多观点 将产品责任与严格责任混同,认为若认定生成式人工智能侵权承担产品责任,则对生成式人工智能提供者2来说责任过于严苛,将不利于我国新兴产业的发展。因此,就生成式人工智 能侵权责任的认定应当首先厘清生成式人工智能的法律性质,在此基础上构建归责路径。
2023年4月国家互联网信息办公室等七部门联合公布的《生成式人工智能服务管理办法(征求意见稿)》同时使用了“生成式人工智能服务”“生成式人工智能产品”“生成式人工 智能产品或服务”等表述,但在同年7月正式颁布的《生成式人工智能服务管理暂行办法》 (以下简称“《暂行办法》”)中只使用了“生成式人工智能服务”的概念,这也表现出我国 立法中存在的困惑,如何选择合适的规制路径并确定责任承担是亟需解决的问题。此外,即 使在此框架之下,《暂行办法》与《互联网信息服务深度合成管理规定》的条款也并不一致, 后者将服务提供者界定为技术服务提供者。《暂行办法》仅规定了生成式人工智能服务提供 者应当承担网络信息内容生产者责任以及个人信息处理者责任,对于“技术支持者”的身份以及生成式人工智能多个层次提供者的属性与责任承担均未明确,这实际上存在立法空白,也为我们思考生成式人工智能侵权适用产品责任提供了契机。
二、生成式人工智能提供者为网络服务提供者思路的排除
(一)认为生成式人工智能提供者为网络服务提供者的主要观点
第一,生成式人工智能本身呈现“千人千面”的特点,并不符合产品格式化、模式化的特 点。提供者或生产者不能通过批量销售来分散其自身所承担的风险。同时,产品一旦脱离生 产者的控制,投入市场流通之后,生产者往往就不再对产品进行控制;而生成式人工智能在 投入市场运行之后,提供者仍然对生成式人工智能负有管理、控制责任,并不具有“一劳永 逸”的特点。大语言模型使用者众多,且用途广泛,因此所造成的损害也不同。生成式人工 智能输出的内容因受到人机交互与算法模型的影响而始终处于变化之中,其对用户提供的服 务不具有同质性,因此生成式人工智能的输出应当被认定为个性化的服务,生成式人工智能 提供者应当为网络服务提供者。生成式人工智能运行过程中的运营一方往往需要不断投入, 对系统完整性进行维护、对系统漏洞进行修补、对系统功能进行升级,完全不同于产品一经 销售,便脱离生产者和销售者控制的特点。人工智能生成的内容也不具有产品概念所要求的 大规模相同或者相似性特征。
第二,生成式人工智能提供者作为网络服务提供者,其侵权责任的认定依照过错责任原 则,而对过错的判断能够更好地兼容政策考量,将保障技术发展的价值取向融入过错的判定 之中。而产品责任为无过错责任,生成式人工智能技术属于快速迭代中的新兴技术,对其提 供者的侵权行为施加严格责任会导致技术开发成本过高,从而阻碍技术发展。生成式人工智 能与一般产品存在本质区别,生成式人工智能主要提供信息内容,并不会因为“产品缺陷” 而对他人的生命、健康、安全、财产等造成直接危害,危险性远小于一般产品,且风险不会 直接作用于人并产生损害,因此,若生成式人工智能侵权适用产品责任将导致其提供者责任 过重。生成式人工智能大模型算法具有高度专业性、复杂性等特征,提供者无法控制大模型 的运算结果,因此,若要求生成式人工智能提供者承担严格责任,但是其又缺乏控制内容生 成的能力,则显然是不公平的。3
(二)生成式人工智能提供者并非网络服务提供者的主要理由
技术层面上,生成式人工智能提供者与传统的网络服务提供者相比,其控制的技术已不可同日而语;规范层面上,我国尚无单行法对人工智能提供者的地位作出规定,目前可通过 《暂行办法》第4条、第7条、第8条、第9条窥见人工智能提供者特殊的法律地位。《暂行办法》第9条的相关表述似将生成式人工智能提供者认定为网络信息内容生产者。我国《信 息网络传播权保护条例》将网络服务提供者分为网络内容提供者与网络服务提供者。网络内 容提供者主要负责提供具体的网络信息内容,网络服务提供者则提供网络基础设施和相关服务,主要包括:网络自动接入和自动传输服务提供者、自动存储服务提供者、网络信息存储 空间服务提供者和搜索链接服务提供者。生成式人工智能提供者无法适用上述任何一种服务 提供者的规定。具体而言:
第一,生成式人工智能提供者难以被定性为技术服务提供者。其一,内容来源与责任主 体的差异。在大多数场景下,生成式人工智能所生成的内容并非来源于第三方,而是直接由人工智能本身产生。因此,生成式人工智能提供者不能简单地被视为“中介服务”提供者。其 二,独立侵权责任的特殊性。在生成式人工智能的应用中,存在用户并未侵权,但人工智能 提供者却单独侵权的特殊情况。此时人工智能提供者需要独自承担侵权责任。现行法律中关 于技术服务提供者承担共同侵权责任的规定无法涵盖这种独立承担侵权责任的情形。其三, 避风港规则的适用难题。在生成式人工智能场景下,内容的生成过程并不公开,权利人难以 通过公开渠道获取足以定位侵权内容的信息,如网络链接等,以作为通知的必要组成部分发 送给生成式人工智能提供者。而且提供者也难以准确定位侵权内容,无法采取删除等阻断传 播的措施。4另一方面,生成式人工智能算法结构复杂,仅凭传统的人工审核等技术手段难 以全面、准确的识别所有潜在的侵权内容。5人工智能生成过程的非公开性,使得外在观察 者难以判定生成式人工智能提供者对于侵权是否属于“知道”或“应该知道”。6
第二,生成式人工智能提供者并非网络内容提供者。其一,服务性质不同。网络内容提 供者提供的内容往往由提供者事先根据其服务的专业领域和创作方向决定,但是生成式人工 智能提供的内容结果严格依照用户的指令生成。生成式人工智能生成内容的行为兼具服务与 内容供给的双重属性。生成式人工智能生成的结果具有高度的不确定性,由于数据抓取存在 的时间、空间差异等,用户相同的提示词可能会产生不同的结果,这与传统网络内容提供者 提供内容的高度确定性存在较大差异。7其二,内容的实际控制者不同。生成式人工智能的 输出结果并非单纯用户提供的内容,而是人工智能系统与用户共同“创作”的结果。用户通过 “提示词”对生成式人工智能进行“微调”,模型与用户交叠增强,衍生出共生能动性的关系。 8人工智能根据用户提示将数据中的语句重新语境化,人工智能系统的复杂响应性和自适应 性超越了单纯内容选择或总结的范畴。生成式人工智能实际上具有多重用途和功能,其不仅 可以直接服务于用户端,更可以作为基础模型供其他领域进行更加细化的应用,例如通过开 放应用程序接口的方式为其他企业提供技术底座。
第三,生成式人工智能提供者并非传统的网络服务提供者。从技术类型上,生成式人工 智能既不能为用户提供类似于电信运营商的互联网接入服务,也不能为用户提供信息存储服 务或者自动传输服务。人工智能自身并不存储数据或信息,人工智能训练数据需要由数据提 供者提供或者由开发者进行网络抓取,并通过“数据喂养”与预训练的生成逻辑,经过算法 转化而生成结果,最终直接向用户提供自我学习后的内容。在实践中,OpenAI公司在使用 协议中自认的免责条件与美国《千禧年数字版权法》(Digital Millennium Copyright Act, DMCA)所规定的网络通信服务提供者、缓存服务提供者的免责条件都不相同。9生成式人 工智能既包括面向公众的程序,例如ChatGPT、文心一言等,还包括离线软件,例如AntSK, 此种离线使用的性质对生成式人工智能提供者为网络服务提供者的身份认定更是提出了险小于一般产品。 其也可能造成个人隐私泄露、数据安全威胁、名誉损挑战。此外,风险的内涵是不确定的,不能简单地认为生成式人工智能的危害,甚至提供错误信息教唆他人自杀或 谋杀等危害。另一方面,即使认为生成式人工智能为网络服务提供者的学者,也承认需对既 有的网络服务提供者侵权责任进行检视而不能直接适用。10生成式人工智能的自动化信息输 出并非一个完全随机的纯粹技术过程,相反,它是基于早前给定的算法而发生的,即便存在 机器的自我学习,但学习过程在一定程度上仍是由人决定的。
第四,将生成式人工智能提供者定位为新型网络服务提供者的立法成本过大。有学者根 据生成式人工智能的特征提出,其应当为新型网络服务。11但是,此种思路并未建立在深刻 审视现有路径的基础上,更多的是对现实需求的无奈折衷,或者是“学术的惰性”的体现。新 问题出现后另设一种类型来应对并非生成式人工智能出现后首次面对的问题,这在新兴权利 大爆发时期就已经被广泛讨论了,目前学界也基本认定不能新出现一种问题就提出一种新的 说法或理论,例如网络法规制的传统命题“马法争议”。如果试图为每一个新出现的技术或现 象制定专门的法律,最终只会使法律体系变得支离破碎,难以形成统一的原则。12司法实践 也大多坚持偏保守的路径,例如在“杭州刀豆网络科技有限公司诉长沙百赞网络科技有限公 司等侵害作品信息网络传播权纠纷案”中,关于微信小程序的法律定位存在争议,杭州互联 网法院拒绝了腾讯认为微信小程序是一种新型网络服务的主张,认定应当在现有的服务类型 中寻找适用路径。法院最终认定微信小程序类似于网络接入、传输服务。13若主张生成式人 工智能为一种新型网络服务,那么仅凭目前其技术上的特征作为支撑显然是远远不够的,还 需要更为抽象、更为深入的论证。在当前我国已有相关立法的情况下,若主张生成式人工智 能为新型网络服务,则修法成本过高,未必为最佳策略。因此,我们应当首先反思现有的路 径,即是否存在成本更低、更能够自圆其说的规则作为认定依据,不可随意将新生事物命名 为“新类型”。
生成式人工智能侵权适用网络服务提供者责任的理论主要集中在规范与用户直接交互 的内容输出行为方面,而忽视了“模型即服务”(model as a service, MaaS)模式下模型提供 者的行为评价。14具体而言,未能充分考虑以下方面:其一,模型提供者的行为规范。在“模 型即服务”模式下,模型提供者负责开发、训练和维护用于生成内容的算法模型。这些模型 的质量和安全性直接影响最终输出内容的合规性和可靠性。因此,需要建立专门的责任机制 来评估和规范模型提供者的行为。其二,技术应用场景的多样性。生成式人工智能既可以作 为独立软件使用,也可以嵌入到各种硬件设备中,广泛应用于不同领域。这使得技术缺陷可 能出现在多个环节,影响范围更广。现有规则缺乏对这些多样化应用场景全面覆盖的内容, 难以有效防范和处理相关侵权行为。生成式人工智能技术的发展速度极快,新的应用场景和技术手段不断涌现。现有规则往往滞后于技术创新的步伐,无法及时回应技术缺陷带来的负 面影响。因此,亟需构建更加灵活和更具前瞻性的法律框架,以适应快速变化的技术环境。
三、生成式人工智能的侵权责任认定:产品责任的框架设想
(一)生成式人工智能产品属性的证成
生成式人工智能具有无形性特征,这挑战了传统的产品认定方式。生成式人工智能的生 产过程和传播方式也不同于传统意义上的“制造”和“销售”。因此,单纯依赖传统的有形性检 验标准显然无法有效应对这一新兴技术所带来的挑战。对生成式人工智能系统定性的关键, 并不在于法律规范中产品的定义,而在于产品责任的规范目的,以及人工智能是否符合该目 的而落入产品责任的对象范围之内。我国产品质量法第2条第2款所定义的产品指“经加工、 制作用于销售的产品”。就此而言,产品要件包括:加工、制作、销售。
1.生成式人工智能的加工、制作属性分析
从文义上考虑,“加工、制作”体现为人类通过劳动创造价值的基本形式。当前,生成式 人工智能的人造物属性并未发生改变,尽管其具有一定的智能性,但是其仍然由人类设计、 编码、训练,并未脱离人为制造的范畴,其输出的内容信息也是人类设计模型产出的结果。 就信息是否能够作为产品责任的客体,在Winter v. G.P. Ptunam’s Sons案中,法官认为产品 责任的适用对象为有形产品。此案的核心争议在于《蘑菇百科全书》是否应被视为“产品”, 从而适用严格责任。法院最终裁定,该书不应被视为产品,而是思想和表达的载体。15然而, 在Saloomey v. Jeppesen & Co.案中,被告辩称有缺陷的航空图表是一种服务,因此其不受产 品责任的约束。法院驳回了这一论点,认为被告的图表是大量生产和大规模销售的,这对于 产品的认定具有决定性作用。16航空图作为一种具有专业性的工具,通过将测绘得来的工程 数据用地理术语描述出来,与指南针最有可比性,使用者需要依靠其指引完成工作,因而航 空图可以被认为属于产品范畴。在此案中,法院强调人们使用的是航行图的物理特性而不是 其中包含的观点。17对航空图与蘑菇指南案件的区别进行分析,可以看出:航空图因其技术 性和机械性特征,性质更接近于可以直接指导行动的工具,因此其可以被视为“产品”;而 蘑菇指南则是关于如何使用工具的知识传递载体,属于思想和表达范畴,因此其不能被认定 为“产品”。然而,随着人工智能技术的发展和应用,这一界限变得模糊。人工智能输出结 果究竟是更类似于可以直接使用的图表(如航空图),还是更类似于指导如何使用工具的书 籍(如蘑菇指南)?
需要注意的是,人工智能系统的输出并非完全独立于人类设计和训练过程,这意味着责 任的分配可能需要综合考虑开发者、使用者以及系统本身的特性。在数字时代,信息的形式 日益多样化,传统的物质形态已不再是判断其性质的唯一标准。相反,信息的功能、用途以 及对用户行为的实际影响可能更为关键。生成式人工智能不仅仅是信息的传递媒介,它还是 信息生成的来源。换言之,生成式人工智能通过复杂的算法和数据分析,生成建议和决策支 持。因此,生成式人工智能的输出应当被视为其系统的固有部分,而不是独立于系统之外的 内容。这意味着,如果生成式人工智能的输出存在缺陷,例如导致错误的医疗建议或诊断,那么这些缺陷应当被纳入产品责任的考量范围之内。生成式人工智能输出的内容与系统的关 系十分紧密,输出内容往往由系统自动生成或修改。因此生成式人工智能不仅仅是输出内容 的载体,更是其来源。生成式人工智能系统与其输出内容之间的紧密程度远远超于书籍与其 中刊载内容之间的紧密程度,生成式人工智能系统与书籍的信息生成机制和存在形式有着根 本差异。生成式人工智能的输出应当被视为其“固有特性”的一部分,系统或者模型本身符合 产品要件的要求。
随着数字技术的发展,数字产品、无形产品同样存在质量瑕疵的问题。信息本身是否符 合产品定义存在争议,这是因为若承认信息致害适用产品责任,则可能导致寒蝉效应,言论 自由将受到极大的干预,影响社会公众之间思想的自由交流,代价巨大。另外,出版社往往 难以控制书籍中的信息内容,要求其承担产品责任对其而言过于严苛。但同时法院也承认, 若出版社对出版的内容起到了重要作用,则结果会大不相同。18生成式人工智能侵权适用产 品责任并不意味着其生成的信息本身为产品。基于言论自由的考量,不能将信息本身当作产 品来对待。但是这并非意味着生成信息的软件或系统本身不能被当作产品来进行规制,换言 之,若生成信息的系统本身并不存在缺陷,即便其生成的信息存在一定的瑕疵,也难以要求 生产者承担产品责任;但是,若因为生成式人工智能本身存在设计、警示等缺陷而导致虚假 信息的产生,则在侵权的情况下要求相关主体承担产品责任是合理的,这也是“成本最低避 免者”责任分配思想的体现。域外司法实践也并未完全否认平台算法侵权适用产品责任的可 能性。19在Lemmon v. Snap, Inc.案中,法院认可了原告认为社交媒体平台Snap存在设计缺 陷的控诉,承认了平台算法为产品,认为算法存在缺陷,并对缺陷造成的损害适用产品责任。 20就人工智能系统而言,尽管其输出的是无形的信息,但是因为设计者、开发者对于结果的 生成具有一定的控制能力,对于减少产品缺陷处于有利地位,也能通过产品责任保险、价格 机制等分散责任风险。人工智能系统提供者应当对系统自身生产机制中的缺陷,包括模型设 计、数据选择等引发的不合理危险所造成的损害,承担产品责任,这符合大数据时代的技术 特征。21
2.生成式人工智能的销售属性分析
生成式人工智能具备可销售属性,其销售对象是不特定的。22随着人工智能和大语言模 型的兴起,“产品”与“服务”之间的界限逐渐模糊。像ChatGPT、Claude和Gemini等模型的 基础代码库通常是固定的,无论在哪台计算机上运行,其核心功能和性能都不会发生变化。 尽管用户的体验可能因输入的不同而有所差异,但这些模型本身的设计初衷是为了满足广泛 的市场需求,因此它们更接近于传统意义上的“产品”。23与传统制造业不同,软件开发和人 工智能系统的构建通常涉及高度自动化的流程,这使得单一错误或漏洞可能迅速传播至全球 范围内的数千万用户。此种大规模生产的特征不仅提高了效率,也显著增加了潜在风险暴露 的可能性。例如,微小的算法调整可能导致用户沉迷、心理健康受损甚至社会分裂现象加剧 等问题。随着生成式人工智能逐渐嵌入到各种产品和服务中,这种技术驱动的危害可能达到前所未有的规模。2022年9月28日,欧盟委员会颁布了《产品责任指令》(the Product Liability Directive, revised PLD),以适应数字时代的发展需要。该提案扩大了损害、产品、缺陷和 责任的概念,明确将无形软件(intangible software)和数字制造文档(digital manufacturing files)纳入产品范畴。24
关于销售方式的认定,通常货物等动产可以进行销售,移转物的所有权;而对于软件, 通常采用“著作权许可”的方式对外提供,用户虽可使用但并不能获得软件著作权。这也是否 定生成式人工智能侵权适用产品责任的主要理由之一。但是,此种区分产品与服务的逻辑仍 然是建立在产品的有形性测试的基础之上。然而,在人工智能已经模糊了产品与服务的背景 下,此种认定方式已经不再适应当前的情况。许可使用的本质在于保护知识产权人的权利, 并没有改变产品被销售的现实,例如软件被储存在光盘中售卖,也不能否认其中存在著作权 人的知识产权,二者并不存在必然的矛盾。换言之,即便购买普通产品也不意味着其中蕴含 的专利权、商标权等被转让。而且“许可使用”大多以合同的形式存在,因此对于非合同受 害者保护不足,其救济仍然限于违约责任之下,难以应对大规模侵权行为。从产品责任发展 的历史来看,其本身蕴含着合同责任与侵权责任的双重属性,对受害者保护更为周全。另外, “销售”体现了保护生产者利益的价值考量,即生产者并不对产品后续使用中产生的问题一概 承担责任,这是产品大规模销售背景下对严格责任缓冲的体现。生成式人工智能是独立运行 的实体,其被设计和制造出来是为了实现特定功能或目的,例如辅助医生进行诊断。欧盟法 院在UsedSoft v. Oracle案中的裁决进一步支持了将软件视为产品的观点。在该案中,法院 裁定通过互联网下载的软件与购买实体材料获得的副本具有相同的法律地位。这意味着,无 论是通过网络下载还是购买实体光盘,用户所获得的软件都应被视为一种产品。基于这一逻 辑,如果集成在硬件中的软件被视为产品,那么独立软件也应当被视为产品。换言之,不应 存在双重标准,即一方面要求硬件中的软件设计者承担责任,另一方面却对独立软件的设计 者免除责任。这显然是不合理的,也不符合法律的一致性和公平性原则。25
从实践来看,我国现有法律法规已经承认了医疗人工智能软件作为医疗器械的属性。用 于诊断、评估的智能算法软件在医药监管领域如何定性,在实践及监管层面经过一段时间的 探索之后,我国已经有了较为清晰的监管框架。根据国家药品监督管理局医疗器械技术审评 中心发布的《移动医疗器械注册技术审查指导原则》《人工智能医疗器械注册审查指导原则》 《人工智能医用软件产品分类界定指导原则》等法律法规的定义:(A)确认凡符合医疗器 械定义的移动计算设备或软件属于医疗器械;(B)确认若软件产品的处理对象为医疗器械 数据,且核心功能是对医疗器械数据的处理、测量、模型计算、分析等,并用于医疗用途的, 作为医疗器械管理。因此,此类医疗器械既包括人工智能独立软件,也包括含有生成式人工 智能软件组件的医疗设备(包括体外诊断医疗器械)。26当生成式人工智能被划归入物的集 合,且流通于市场时,即体现出生成式人工智能的产品属性。根据我国台湾地区“消费者保 护法”的规定,产品责任的客体包括商品、服务及混合产品等三种类型。德国针对医疗产品 另外制定了《医疗产品法》(Gesetz über Medizinprodukte, MPG),其是产品责任法的特别法;依据该法第3条第1款的规定,以诊断、治疗或维持其他医疗产品正常功能为目的的软 件,亦属于医疗产品。因此,如果发生医疗人工智能软件误诊的情形,患者也可以向开发者 主张产品责任。27在Simulados Software, Ltd. v. Photon Infotech Private, Ltd.案中,法院认为大 规模生产的(mass-produced)、标准化(standarized)的或普遍可用(generallly available) 的软件,即使是为适应特定需求开发的软件,其属性也应当被认定为“产品”。28尽管生成 式人工智能输出结果可能“千人千面”,但是生成式人工智能系统本身均以标准格式进行批量 模型训练和模型设计,所谓输出结果不同也仅仅是用户诱导下生成结果的异化,本身也是算 法模型运行结果的题中之义。29另外,可以将生成式人工智能与电力、热力等非传统有形动 产类比,供应者在制造、控制、输送过程中的广泛参与,使电力等非传统有形动产具备了产 品特征。尽管生成式人工智能会根据用户输入的数据而输出不同的内容,似乎有“私人定制” 的外在表象,但是这并非针对特定用户的服务,其内在的算法逻辑是相同的,程序及模型的 设计并没有实质上的差异。生成式人工智能若已经完成了测试,被投入市场中使用,则符合 投入流通的要求。因此,生成式人工智能符合产品的定义,生成式人工智能侵权应当适用产 品责任。
(二)产品责任契合生成式人工智能“基于风险”的动态规制方式
生成式人工智能侵权责任的确定应当以风险分担为依据,以实现各主体之间的利益平 衡。风险分配通常指对风险本身的分配和对风险导致损害后果的分配。
第一,产品责任为无过错责任的误区澄清。关于生成式人工智能侵权的归责原则其实一 直存在过错责任与无过错责任的争议,有观点认为基于鼓励创新的价值取向,生成式人工智 能存在现有技术无法完全解决的固有缺陷,如果对此苛以无过错的严格责任,则会制约相关 技术的创新和发展,30此观点也是否定生成式人工智能侵权适用产品责任的主要理由。但是, 这本身存在一定的误区,从法律经济分析的方法来看,无过错责任原则造成的整体社会成本 未必会大于过错责任原则。法律上的“合理注意”要求对应的是事故成本与预防成本之和最小 的注意水平,若违背了此合理注意义务则被认定为存在过失。但是,抛开归责原则的限制, 理性民事主体从事民事行为其实均追求私人成本的最小化。采纳无过错责任原则并不意味着 行为人会为了防范事故而无限投入:一方面,无过错责任原则往往与责任保险相配套,可以 减轻行为人的责任承担,同时无过错责任原则导致的损害往往具有额度的限制,责任人承担 的责任并非是无限制的。另一方面,在无过错责任原则下,无论行为人采取何种注意义务和 措施,都不影响最终结果的实现,即行为人均需要承担与事故有关的全部社会成本,那么理 性经济人必然会选择最小限度的注意措施。因此,若适用无过错责任原则将使行为人承担责 任过重而制约人工智能产业发展的立论是站不住脚的。
另外,从国际立法趋势来看,产品责任中严格责任逐渐衰弱,过错责任逐渐回归。在早 期阶段,大多数产品责任案件主要集中在制造缺陷上。法院为制造缺陷适用严格责任提供了 强有力的理论依据:首先,制造商在预防产品事故发生方面具有显著的优势地位。其可以通 过实施严格的测试程序、监控生产过程中的数据以及改进安全规程来减少事故发生的风险。其次,制造商有能力通过购买保险分摊责任损害或将成本分摊到所有终端用户的价格中。这 意味着即使发生个别事故,制造商也可以通过经济手段减轻自身的负担。相比之下,在过错 责任原则下,原告往往面临举证困难的问题。其需要证明制造商在装配线管理或安全规程制 定方面未能履行合理的注意义务,而这通常需要进行复杂的证据收集和技术分析,对普通消 费者来说几乎是不可能完成的任务,因此严格责任更具有优势。然而,从20世纪中叶到21 世纪之初,随着技术的进步和大规模生产的普及,产品责任案件的数量和性质都发生了显著 变化。这一时期,强大的技术和复杂商品的出现促使产品责任归责原则逐渐演变。设计缺陷 和警示缺陷的诉讼请求逐渐增多。设计缺陷和警示缺陷的判定要求制造商不仅要确保产品的 物理完整性,还要对其设计的安全性和信息透明度负责。这种转变不仅体现了法律对消费者 保护力度的加强,也推动了企业在产品研发和市场推广过程中更加注重安全性和合规性。相 比制造缺陷,设计缺陷涉及的因素更为复杂,单纯依赖消费者预期可能无法全面评估产品的 安全性与合理性。因此,法院开始转向一种更具灵活性的标准——带有过失色彩的“风险效 益”标准。根据这一标准,法院需要对产品的设计属性进行全面评估,权衡其优点与缺点, 以判断产品是否达到了合理的安全水平。对于警示缺陷的认定,通常适用“合理性”标准,即 评估制造商是否提供了充分的信息以使消费者能够合理预见和规避风险。设计缺陷和警示缺 陷的判定基本上适用过错责任原则,这体现了产品责任从严格责任向过失责任的价值转变。 因此,以产品责任为无过错责任来否定生成式人工智能侵权适用产品责任,也是无法站住脚的。
第二,产品责任适合生成式人工智能系统多样态、多层次的特征。生成式人工智能系统 十分复杂,涉及多个利益相关者,这使得追踪其故障来源或将故障的责任归咎于单个提供者 是十分困难的。判断多元主体之间的过错程度和责任大小以及对受害人受损权益的保护在司 法实践中是一个很大的难题。生成式人工智能通过机器学习、深度学习等技术实现了自主性 和自适应性,削减了人类对生成式人工智能的控制,因此对人工智能侵权行为进行归因和责任的确定存在困境。
从产品责任的发展历程来看,产品责任能够应对产品所带来的复杂、交互式和动态风险。 美国Air & Liquid Systems Corp. v. DeVries.31案中,制造商生产了一台“裸金属”涡轮机,随后, 另一家零部件制造商在涡轮机上加装了含石棉的垫圈。工人因此接触到了石棉而受到损害, 之后工人起诉了原涡轮机制造商,认为其未对此作充分警示。问题在于,原制造商是否应对 在其产品投放市场后加装的含石棉零部件所造成的损害承担责任,法院给出了肯定的答案。 该判例为生成式人工智能侵权责任的承担提供了重要参考:基础模型开发者需预见下游应用 场景的潜在风险;即便系统集成商添加有害组件,原始开发者仍负有限警示义务;持续监测 义务涵盖产品整个生命周期,包括算法迭代更新等。正如涡轮机制造商被认定需要对产品投 入市场之后的改装风险负责,人工智能基础模型开发者也不能以“技术中立”为由逃避对衍 生应用风险的警示责任。这种动态责任机制恰能应对机器学习系统在部署后持续演化的特 性。产品责任制度具有强大且富有活力的本质在于:产品责任对制造商施加了售后义务;生 产者需对产品进行测试以及了解风险的义务并不会在产品投放市场时结束。
在容许风险范围内,生成式人工智能开发者作为创设风险的主体必须承担回避风险的义 务,因而有义务保障人工智能系统的安全风险处于合理范围之内,这是产品责任对风险源监督义务这一一般保证义务的要求所在,一旦生成式人工智能系统造成了危害后果,提供者则 应当对其风险源所引发的损害后果承担责任。生成式人工智能开发者、提供者对系统缺陷给 使用者或第三人造成损害的情况承担产品责任,有利于督促开发者、提供者更好地控制风险。 对于生成式人工智能不可预知的安全风险,模型设计者、模型训练者、数据提供者等均具备 控制风险、承担风险和分散风险的能力。32此种情况下,这不是过错问题,而是风险分配和 损害救济的承担问题。33生成式人工智能侵权适用产品责任,可以实现对其设计、训练等行 为的源头规制。这对于减轻受害人的举证责任、救济非合同相对人来说具有重要意义,对于 新型损害,例如歧视、虚假信息、信息泄露等也能更好地进行规制和防范,具有无法比拟的 优势。34欧盟《关于缺陷产品的责任指令》(Liability for Defective Products Directive)认定 人工智能侵权适用产品责任的主要原因是缓解受害人承担的举证困难,方便受害人快捷地获 得赔偿。生产者在将产品投入市场之前必然会对其进行充分的检测从而消除可能存在的缺 陷。生产者也最能通过价格、保险等机制将风险内化,防止风险扩大造成他人的损害。35产 品在规模销售中其实已经将风险分散了,生产者通过产品的大规模销售获得巨额利润的同 时,也应当承担控制风险的义务。另一方面,针对人工智能的产品特性,在严苛无过错责任 与过错责任之间存在“缺陷认定”、发展风险抗辩事由等制度以缓冲严格责任的绝对刚性,产 品责任实际上兼具过错责任与无过错责任的优势。针对生成式人工智能的开发过程,从识别 超参数到清理训练数据再到测试模型,其实都与相关主体的选择密切相关,产品责任的归责 原则并非绝对无过错责任,也并非单一过错责任,相反,产品责任往往根据风险来源与缺陷 类型匹配多样化的归责原则。这恰好契合了生成式人工智能系统多身份、多样态、多层次的 特征,可以根据风险产生的来源或层次确定缺陷的类型与属性,并进一步适用相关的归责原 则。36作为不真正连带责任的一种,产品责任有助于协调模型供给者与模型调用者之间的关 系。当因产品缺陷导致损害时,被侵权人既可以向模型供给者请求赔偿,也可以向模型调用 者提出索赔请求。在这种责任框架下,无论是开发者还是运营者,在向用户承担赔偿责任后, 可以根据模型卡技术记录、模型提供者的说明等信息,确定价值链中其他相关主体是否存在 不当行为,并向其进行追偿。这不仅有助于明确各方的责任,还能确保受害者能够及时获得 赔偿,同时避免责任主体之间的推诿。
(三)产品责任有利于实现与监管的良性互动
社会主要通过两种机制来管控诸如人工智能之类的新技术所带来的风险:责任和监管。 这两种机制在功能和实施方式上各有侧重,但共同构成了对新技术的全面治理框架。首先, 责任法是一种事后干预机制,仅在新技术造成损害时才发挥作用。其核心目的在于提供矫正 正义,即确保受害者能够获得适当的赔偿,同时为技术开发者和使用者提供正确的激励,以 减少未来类似损害的发生。在人工智能领域,监管机构可能会要求开发者在算法设计阶段就 考虑公平性、透明性和安全性问题,或者强制实施数据保护措施以防止隐私泄露。此外,政府还可以通过定期审计、认证程序或强制报告制度来监督技术的实际应用情况。值得注意的 是,这两种机制并非相互排斥,而是可以相辅相成的。责任法虽然主要关注事后救济,但它 也可以间接推动事前预防,因为潜在的责任风险会促使技术开发者主动采取更严格的防范措 施。而监管则能够通过明确的标准和要求,为责任法的实施提供基础依据,使得责任分配更 加清晰合理。通过精心设计的产品责任制度,可以有效促进侵权责任与行政监管之间的协调 互动。这种制度设计不仅能够明确各方的责任界限,还能确保在处理侵权问题时,行政监管 措施与民事赔偿机制相辅相成,共同维护市场秩序和消费者权益。37
产品责任可以提供稳健的框架,以处理人工智能模型和机器学习迭代问题。以药品为例, 在将药品投放市场之前,监管机构往往要求制造商至少进行三个阶段的临床试验,并向监督 机构提交试验数据,对药品的安全性和有效性进行严格的事前监管审查。这个上市前的审批 过程是产生信息的过程。尽管存在此种严格的上市前审查措施,但是社会公众对此药品的特 性可能仍然知之甚少。因此,当监管机构批准的新药品被投放市场之后,此药品将与众多患 者相互作用,可能产生关于此药品的安全性和有效性的新信息。此种“学习”需设计反馈循环, 一旦发现新的风险证据,就应当调整监管框架。制造商需要将新信息提交到监督管理机构(例 如额外风险或新的用途、副作用等),增加新的警告或批准新的预期用途等。药品的产品责 任框架为生成式人工智能侵权责任认定提供了借鉴模版。
生成式人工智能由于其具有交互性特征而与其他技术不同。从美国来看,美国食品药品 监督管理局(FDA)最初只批准了算法锁定的人工智能/机器学习(AI/ML)设备,即设备 的代码和输出不会随使用而改变。如今FDA已经开始批准越来越复杂、自主的人工智能学 习系统,这些系统可以根据数据输入和分析进行学习和适应。FDA于2021年1月发布了“基 于人工智能/机器学习(AI/ML)的软件作为医疗设备(SaMD)”的行动计划,并且在2022 年9月,完成了其数字健康软件预认证(Pre-Cert)试点计划,该计划旨在为自适应监管方 法的开发提供信息。其中许多方法适用于机器学习设备,监管机构对进一步的范式转变持开 放态度。FDA认识到需要更新医疗器械上市前变更审查的传统框架,于2023年4月发布了 “人工智能/机器学习设备的预定变更控制计划”(Predetermined Change Control Plan for Artificial Intelligence/Machine Learning Devices, PCCP),旨在减少可通过迭代修改提高性能的 自适应设备的监管障碍。FDA要求制造商在将人工智能设备提交市场推广申请时包涵PCCP (人工智能设备的预定变更控制计划),以便“预先指定并寻求对AI/ML(人工智能/机器学 习)设备的预期修改(及其实施方法)的上市前授权,而不必为每个按照PCCP指定和实施 的修改单独提交市场推广申请”。PCCP的核心要求是对配备PCCP的AI/ML设备所带来的 好处和风险,及风险缓解措施进行上市前影响评估。PCCP要求监管机构在人工智能或机器 学习设备在上市前进行一定程度的审查,同时放宽变更限制范围以便允许设备在上市后能够 进行有限调整,而不需要开发者频繁提交新提案。AI/ML技术推动了FDA监管范式的转变, 即从将大部分精力及资源投入到上市前批准的模式,转变为专注于持续进行市场后监控的模 式。38因此,产品责任能够与监管实现良好的反馈循环。生成式人工智能契合产品的属性, 对其侵权责任的路径也不能舍近求远,而应当从最契合其本质的产品责任出发,调整产品责任的相关内容。我国国务院印发的《新一代人工智能发展规划》提出,要建立健全人工 智能监管体系,实行设计问责和应用监督并重的双层监管结构,实现对人工智能算法设计、 产品开发和成果应用的全流程监管。《暂行办法》延续了上述文件从技术研发到使用的全过 程、全要素的监管逻辑,并额外确立了安全评估、算法备案、预训练和优化训练数据合规、 人工标注合规等具体制度安排。因此,生成式人工智能侵权适用产品责任,能够实现责任与 监管的良好互动。
四、生成式人工智能侵权适用产品责任的具体展开
(一)产品责任框架下的主体识别
由于传统产品责任以工业制成品为蓝本,所以生成式人工智能侵权适用产品责任存在一 定的困境。传统意义上的产品责任仅规制生产者和销售者等主体的行为,设计者和运营者并 非产品责任的适格主体。然而,在生成式人工智能应用的背景下,设计者与运营者对产品缺 陷的产生起着决定性作用,若将二者排除在责任主体范畴之外,则可能会带来责任分配不公 的结果。生成式人工智能可能涉及多方,鉴于人工智能流通方式的特殊性及损害赔偿的复杂 性,采纳广义的产品责任定义更为合理,产品责任主体应当从生产者、销售者扩充至生成式 人工智能流通链上负有责任的相关主体,承认设计者、运营者的责任主体地位。根据我国民 法典和产品质量法关于产品责任的规定,设计者与运营者应类比为产品责任中生产者与销售 者的地位,设计者与运营者承担连带责任,运营者承担先行赔付义务,再向具体过错方追偿。
设计者也可以称之为研发者,指研发人工智能模型的主体,即开发人工智能模型、收集 训练数据、构筑训练用的数据集以及使用数据集进行人工智能训练的主体。其核心作用在于 通过使用数据进行(预)训练的方式,形成人工智能模型。设计者主要负责设计模型、算法 等,对系统运行负有安全保障义务,保障系统性能平衡,降低系统风险发生概率。设计者在 某种程度上即是系统、模型、软件的“生产者”,因此人工智能的设计者应当承担与生产者类 似的责任。设计者应当遵循“可信赖智能伦理原则”,注重产品的安全性、稳定性、智能性, 在此基础上追求功能性。设计者应当构建可信模型,在产品设计研发过程直至进入市场前, 应当进行全方位的功能性测试和调整。开发者必须披露相关风险、潜在缺陷、人工智能决策 的可解释程度,以及该系统所运用的“内置价值或标准”。生成式人工智能侵权责任适用产品 责任,由最能够控制算法安全风险的开发者承担主要责任,是比较公平与合理的。在生成式 人工智能基础模型本身并无明显缺陷,但下游用户可能对其进行调整或滥用时,尽管直接导 致危害的是第三方的行为,但设计者仍可能因未能履行合理的注意义务而被追究责任。如果 设计者事先知晓其技术可能被用于此类用途,却未采取任何措施来限制滥用行为或提醒用户 相关风险,则可能被视为未尽到应有的谨慎义务。但是,此种责任分配并非绝对,法院在判 定时会综合考虑多种因素,包括但不限于设计者的实际预见能力、技术实现的可行性以及社 会利益的平衡,以防止开发者责任过重而抑制创新。
运营者又被称之为部署者,具有以下特点:其一,在相当多情况下,部署者会以“微调” 的方式对研发者的模型进行二次训练。其二,部署者需要将模型以一定的方式“编入”特定的 软件或者服务内,才能为使用者提供服务。《暂行办法》提到的“通过提供可编程接口”(API 接口)就是一种典型的“编入”方法,部署者通过API接口调用研发者的人工智能模型,从而 为他人提供服务。39欧洲《人工智能责任指令》(Artificial Intelligence Liability Directive)40 承认了运营者为责任主体,并区分为前端运营者(fronted operator)和后端运营者(backend operator):前端运营者指控制系统风险且从中获利的主体,或者指控制一定的风险并且持 续定义技术特征、提供数据或基础支持服务的主体;41后端运营者指持续定义技术特征、提 供数据和必要的后端支持的主体,即对与人工智能的运行和功能相关的风险进行一定程度控 制的自然人或法人。系统运营者是指在人工智能开发之后,购买或受让系统使用权、享有人 工智能系统运行中所形成和收集到的数据所有权或利用收集的数据进行系统优化,从中获取 利益的主体。换言之,运营者处于设计者的链条后端,当设计者并未转让其设计开发的系统 时,就自动转变为运营者;若将系统转让时,受让方即为运营者,并负有对后续系统更新、 升级、测试、调整的义务。运营者承担技术持有者责任,根据“可控制”要求下新的技术标准 与评价标准持续履行数据保护、内容管控、溯源标记、监管、异常警告、紧急关闭系统、持 续支持和修补、召回等义务。运营者可以通过投保强制责任保险等措施规避系统性风险,除 利用生成式人工智能颠覆国家政权、输出暴力色情内容等违法行为以外,其仅应承担适度的 责任,鼓励其投资新型技术、扩展算力规模并保护其技术利益。
(二)产品责任框架下生成式人工智能缺陷的认定标准
生成式人工智能大致可以分为基础层、中间层和应用层三层架构,生成式人工智能系统 的缺陷也应当根据不同的阶段和层次进行认定,具体而言,可以根据生成式人工智能的生命 周期,即模型训练阶段、模型设计阶段、模型输出阶段,结合三个层次的特征综合判断其中 可能存在的“不合理危险”,即产品缺陷。42
第一,制造缺陷。人工智能的算法构建明显不同于传统的产品制造,在模型训练阶段, 训练过程可以被认定为制造过程,应当防止数据训练偏离设计预期,否则即可以认定为系统 存在制造缺陷,开发者应当承担无过错责任。如果瑕疵数据是由第三方提供的,此瑕疵数据 集也可以被视为组件部件。这意味着,如果第三方提供的数据存在质量问题或不符合预期标 准,开发者也需要对这些外部因素导致的问题负责。数据提供者应当类比为原材料供应者, 数据提供者与生成式人工智能开发者之间可以通过合同关系进行规制。但是,在数据来源于 开发者网络抓取的情况下,若因为数据存在瑕疵而带来不合理危险,则应当认定系统存在制 造缺陷,开发者应承担严格责任。模型训练的数据来源应当保证其合法性、安全性,不得侵 犯国家秘密或个人隐私。在基础模型层上的模型训练,其运行基础为高度复杂的算法模型基 座,这就意味着使用者基本上难以举证证明模型基座的过错及侵权行为,适用无过错责任原 则有利于夯实安全基础,此为保障安全的首要要义所在。另外,专业模型往往以相关行业的 数据进行“喂养”,具有鲜明的行业特征,以医疗人工智能为例,在专业模型训练过程中往 往以患者、疾病、医疗规范等作为主要的数据训练对象,模型基座方无法直接与专业模型方 进行模型融合设计,需根据不同行业、不同类别的数据进行训练。生成式人工智能开发者可 以挑选数据提供者,或者本身同时为数据抓取者,故其应当对训练所使用的数据负有高度安 全责任。此时,专业模型开发者应当为制造者,承担无过错责任。例如,如果人工智能的初 始设计是使用不同患者群体的数据进行训练,但实际操作中却使用了同质患者群体的数据进行训练,这可能会被认定为系统存在制造缺陷。这种情况下,由于数据集的偏差可能导致系 统无法准确识别和处理多样化的病例,从而影响系统诊断结果的准确性,此为制造缺陷的表现。
第二,设计缺陷。在模型设计阶段,设计缺陷一般由设计原理、设计方案、产品结构错 误等原因造成。生成式人工智能中最为核心的部分就是算法决策,设计缺陷是生成式人工智 能产品责任最重要的认定要件,设计者应当承担算法合规义务、算法公正控制义务。生成式 人工智能的缺陷通常是由于设计选择不当造成的,包括不完善的算法或对边缘情况考虑不足 等原因。生成式人工智能在设计和编译过程中可能出现的数据建模错误、阈值设置错误等, 均可以被认定为设计缺陷。生成式人工智能的输出往往不会直接导致损害结果的发生,因此, 就生成式人工智能的设计缺陷认定而言,应当采纳“消费者可预期+同类型生成式人工智能模 型设计”标准,即主观标准加客观标准的模式。换言之,生成式人工智能产品用户的期待在 于其不会对个人的人格权、个人信息等造成损害,同时生成式人工智能的输出不会产生损害 社会公共利益的行为。这就意味着,生成式人工智能的模型设计应当构筑以伦理为先导的利益平衡机制,遵守法律法规的要求,尊重社会公德、公序良俗,体现社会主义核心价值观, 防止出现歧视、生成虚假信息和实施不公平竞争等行为,禁止非法获取、披露、利用个人信 息和隐私、商业秘密等。如果在模型设计阶段并未考量伦理要素,则可以认定此系统存在设 计缺陷,设计者需承担过错责任。但是,生成式人工智能具有高科技性、复杂性、专业性等 特征,消费者预期可能并不能准确判断设计缺陷的存在,或者设计者可能通过培养消费者预 期而逃避责任,因此,必须辅之以客观标准,且相关算法设计、模型设计需要进行公示并接 受技术监管部门的审查。43客观标准以“模型可信赖”为准,换言之,设计缺陷的认定需参考 同类型、同场景的生成式人工智能大模型的设计标准,若实践中存在效益更优、更加安全的 模型设计方式或标准,而致害的生成式人工智能系统的设计未达到此标准,则应当认定此系统存在设计缺陷。
第三,警示缺陷。生成式人工智能的设计者、运营者需要对其产品因使用说明不足或未 能充分警示使用风险而导致的损害承担责任。这一责任源于制造商对消费者的安全保障义 务,即制造商有义务确保其产品在合理使用范围内不会对用户造成伤害。具体而言,设计者 与运营者有义务向消费者提供关于产品固有风险的充分警示。这些风险不仅包括产品正常使 用中的潜在危险,还包括在合理可预见的误用情况下可能出现的风险。所谓“可预见性”,指 的是客观合理的预期,而非仅仅考虑理论上可能发生但实际概率极低的情况。例如,某一生 成式人工智能系统被设计用于医疗诊断活动,设计者应当考虑到医生或护士可能会如何使用 该系统,并预测到他们可能因为误解系统的功能而产生的错误操作。因此,设计者必须确保 提供的使用说明足够详细,以避免用户因误解或误用而受到伤害。设计者、运营者应当承担 全链条监管义务,其警示义务应当与注意义务一致,包括算法解释与说明义务,对生成内容 进行合规注释或标记的义务等。44警示缺陷既表现在设计者、运营者应告知系统风险存在而 未告知方面,也表现在损害发生后设计者、运营者未及时进行事后救济方面。运营者应当加 强对用户行为的监督和指引,保障生成式人工智能在投入市场应用流通时处于安全水平,并提升使用者的自我保护意识。在专业应用层,由于生成式人工智能将被应用到医疗、法律、 金融、教育等不同领域中,其可能产生的侵害后果与危害程度也不尽相同,此时提供者的警 示义务应当与专业相结合,区分不同的专业、场景、风险等级进行告知。对于关键行业或者 高风险领域,提供者则应当着重进行风险评估和警示。如果生成式人工智能的输出内容容易 让用户产生误解,例如用户认为系统提供的信息是可靠的医疗建议,那么即便系统提供了免 责声明,生成式人工智能系统的输出仍可能被视为具有误导性。因此,在设计和部署人工智 能时,设计者和运营者必须考虑到这些潜在影响,并采取适当的预防和警示措施,否则即可 以认定系统存在警示缺陷。
第四,跟踪观察缺陷。由于基础模型在投入流通时可能存在当时科技水平下尚不能发现 的潜在缺陷和风险,设计者与运营者还应当对基础模型承担跟踪观察义务,并将新发现的潜 在缺陷和风险及时通知产业生态下游参与者并协助其采取特定补救措施。45对于数字化产 品,研发者无需通过物理召回修复错误,只需安装更新软件来调整控制程序即可。因此,研 发者实际上需要在系统的整个生命周期内持续进行产品监测和维护。欧盟《人工智能法》要 求高风险人工智能系统的提供商必须对算法进行“合格性评估”(comformity assessments), 并且建立“上市后监测计划”(post-market monitoring),以记录高风险人工智能系统整个生命 周期中的性能。跟踪观察缺陷的认定应当与发展风险抗辩制度相衔接,以充分平衡产业创新 与权利保护之间的关系。人工智能运营者负有上市后监测的责任,这意味着运营者不能在产 品投入市场流通后就停止关注系统的安全性和有效性。相反,运营者需要持续审查与该人工 智能系统相关的各种数据来源,如不良反应报告、科学文献等,以评估现有的警示和使用说 明是否仍然充分。如果发现新的风险或问题,运营者应及时更新产品说明,以确保用户能够 获得最新的安全信息。在生成式人工智能运行期间,运营者可以采用“红队测试”的方式,通 过大模型间的攻防对抗测试以持续监测受攻击大模型的可能漏洞,并对可能存在的漏洞进行 警示和修补,或对偏离轨道的算法进行规制和修正,并为受害者提供救济途径。
(三)生成式人工智能发展风险抗辩的适用
第一,生成式人工智能发展风险抗辩适用的条件。生成式人工智能流入市场并不会截断 设计者对系统中存在的潜在风险的掌握权。在既有技术水平的范畴内,生成式人工智能所引 发的危害结果,应被视为一种难以规避的残余风险的体现。风险将责任归咎于个体,本质上 是创新局限性的体现。即使生成式人工智能系统已经进入市场流通,提供者也应当承担风险 控制义务,一旦发现损害风险抬头,开发者就应当采取修正算法、限制访问等遏制风险结果 继续蔓延的有效措施。基础模型设计者应承担后续信息支持服务,这要求基础模型设计者通 过必要的信息披露和风险追踪措施以协助产业生态下游各参与者更好地依据该信息设定合 规计划和履行风险管理义务。例如,欧盟《人工智能法》序言第60条要求基础模型提供者 在不损害其自身知识产权或商业秘密的前提下向下游运营者等利益相关方提供关于基础模 型的必要信息以促进其对于合规义务的遵循,并于附件列明基础模型设计者需要向下游运营 商披露的关于必要技术参数、模型性能测试结果、存在的缺陷和漏洞、所采取的风险缓和措 施等信息示例。发展风险抗辩适用的时间点是“将产品投入市场流通时”,一般来说,产品 投入流通的时间点是指生产者正式将产品推向市场、开始销售的时间。然而,在人工智能产品领域,这个时间点可能并不那么明确。人工智能系统的缺陷是在投入流通时已经存在的, 还是在测试阶段或销售之后经过人工智能的自主学习而产生的,这一事实认定对发展风险抗 辩的适用至关重要。具有自主学习能力的人工智能产品,由于其能够在使用过程中根据用户 数据自行更新算法,从而改变功能和性能,有时甚至超出生产者原本的设计和控制范围,这 就要求在评估产品缺陷和责任时应当采取更为灵活的标准。当产品缺陷致害状态无法准确确 定或难以判断时,可将最后一次实质性更新的时间作为衡量是否适用发展风险抗辩的关键节 点。如果在当时的技术能力下无法采取结果回避或止损措施的,实质上属于法所容许的风险 范围,可以构成免责事由。为了有效管控风险,必须明确区分一般更新和重大更新,发展风 险抗辩的适用需对重大更新进行重点审查。
第二,生成式人工智能发展风险抗辩适用的标准。生成式人工智能的模型训练是一个动 态且持续的过程,训练数据来源巨大且分散,同时输出结果可能与人类输入的内容息息相关, 如何认定生成式人工智能的发展风险,是否适用相关的免责事由则成为侵权归责的重点。现 有技术手段和人力资源基本上无法实现对生成式人工智能训练数据进行实时和全面的监控。 《暂行办法》基本上延用了网络治理的避风港规则思路,46这实际上仍然是将生成式人工智 能提供者当作网络服务提供者的思路进行的立法,混同了二者的本质,无法实现多方利益平 衡。在基础层,大模型预训练是生成式人工智能集纳海量数据进行分析的主要环节。当前, 生成式人工智能所采用的主流模型是深度学习模型Transformer,预训练模型所包含的参数 量都是上百亿甚至是上千亿的,巨额参数正是海量数据汇聚的结果。由于生成式人工智能的 涌现性,无法完全排除其诱发风险的可能,故应当构建以发展风险抗辩为核心的“安全港” 制度。此制度可以为技术应用提供一个相对安全的环境,只要企业在开发和部署人工智能系 统时遵循了某些预先确定的最佳实践和标准,就可以在某种程度上免于担责。这可以为企业 提供清晰的行为指引框架,鼓励其采取积极措施。也有学者将此称为“技术避风港”,即监管 机构通过技术审核,认定一项或多项技术方案作为合规技术方案,开发者采取了技术合规方 案就能够获得责任豁免。47安全港制度本质就是发展风险抗辩理念的体现,即设计者只要采 取了“当时科学技术水平”要求下的技术措施,就可以据此免于承担侵权责任。“当时科学技 术水平”的认定需要综合考虑技术水平的时间性、行业性、区域性。针对生成式人工智能的 特征,应当对“必要措施”采取限缩解释,即主要包括停止生成、停止传输、消除等处置措施。 明确“消除”不等同于“删除”,在生成式人工智能中若直接将语料库删除,使作品在物理意义 上消失,那么在系统判断错误的情况下代价过高,毕竟生成式人工智能不等同于司法裁判。 设计者的事后注意义务则集中于生成式人工智能的风险等级和被损害的利益价值判断方面, 设计者需采取从限制功能、暂停到终止人工智能等多项处置措施,防止风险进一步演化。此 外,生成式人工智能运营者不仅是将风险源引入市场或社会的责任主体,而且其还可以利用 技术和资本权力,控制生成式人工智能本身的制造安全,直接管理应用中的生成式人工智能 的实时安全水平。生成式人工智能的技术风险在系统开发和应用阶段逐步形成并实现,设计 者熟知生成式人工智能技术开发的全过程,对其应用风险具有超越其他一般人的预见可能 性。运营者还掌握着生成式人工智能应用安全风险的支配管理能力,不仅在应然上承担风险管理责任,还必须在实然上采取各项风险预防措施,如严厉的风险评估、持续的监控机制和 有效的应急处理措施等,以最大程度地减少和控制生成式人工智能技术可能带来的各类风 险。
五、结语
在当今人工智能技术迅猛发展的背景下,如何合理界定生成式人工智能的属性与侵权责 任成为法律领域的重要议题。从本质上看,生成式人工智能提供者不符合当前网络服务提供 者的特征。在现有民事制度下,我们不妨向产品责任寻求突破路径。在产品责任框架下,基 于生成式人工智能的特征,传统的产品检验标准已显得力不从心。因此,产品责任认定标准 需要转向基于功能性公共政策考量的方法,以评估生成式人工智能侵权适用产品责任的合理 性。这一转变的核心在于判断人工智能技术是否符合大规模生产和广泛危害风险的范式,此 为现代产品责任法中的两个关键要素。然而,在人工智能技术领域,情况变得更加复杂。生 成式人工智能具有自主性、不透明性、不可预测性等特征,这导致有学者认为人工智能侵权 归责需脱离产品责任,理由主要是产品责任为严格责任,生产者难以控制生成式人工智能中 存在的风险,因此要求生产者承担无过错责任则对其不公平;生成式人工智能大多以服务的 形态存在,不符合产品的定义等。但是这些理由大多是对产品责任的误解。生成式人工智能 侵权归责适用产品责任具有合理性,产品责任契合“成本最低避免者”的责任分担理念。在 生成式人工智能技术日益普及的背景下,我们应更多地关注功能性公共政策因素,以决定是 否将产品责任适用于人工智能侵权行为,其中最重要的考量因素之一是代码的大规模生产性 质。在人工智能时代,产品责任的适用标准逐渐从“物理缺陷追责”向“系统风险治理”转 变。因此,生成式人工智能侵权适用产品责任,有利于实现对风险的源头控制与治理。
附注:
1、刘杰:《ChatGPT类生成式人工智能产品提供者之刑事责任》,载《法治研究》2024年第2期,第61— 71页;周翔:《算法规制如何场景化》,载《东方法学》2024年第2期,第136—150页。
2、在我国现行立法下,生成式人工智能侵权责任主体“提供者”的内涵并不明确。《生成式人工智能服务 管理暂行办法》将“提供者”定义为服务提供者。本文主张生成式人工智能侵权适用产品责任,在此背景 下,提供者的范围主要包括设计者与运营者。
3、 王杰:《生成式人工智能服务输出侵犯版权内容的救济研究》,载《科技与出版》2024年第7期,第59 —69页。
4 、姚志伟:《生成式人工智能服务提供者在私法上的法律性质》,载《上海交通大学学报(哲学社会科学 版)》2024年第12期,第127—142页。
5、 徐小奔、薛少雄:《生成式人工智能服务提供者版权注意义务的法律构造》,载《科技与出版》2024年 第7期,第48—58页。
6、 郑志峰、罗立铖:《论生成式人工智能的“避风港”规则》,载《人工智能》2024年第1期,第91—99页。
7、 Beatriz Botero Arcila, Is It a Platform? Is It a Search Engine? It's ChatGPT! The European Liability Regime for Large Language Models, 3 Journal of Free Speech Law 455, 488 (2023).
8、 参见金庚星:《媒介即模型:“人—ChatGPT”共生自主系统的智能涌现》,载《学术界》2023年第4期, 第77页。
9、徐伟:《论生成式人工智能服务提供者的法律地位及其责任——以ChatGPT为例》,载《法律科学》2023 年第4期,第73页。
10、 徐伟:《生成式人工智能侵权中因果关系认定的迷思与出路》,载《数字法治》2023年第3期,第129 —143页。
11、 徐伟:《论生成式人工智能服务提供者的法律地位及其责任——以ChatGPT为例》,载《法律科学(西 北政法大学学报)》2023年第4期,第69—80页。
12、 Frank H. Easterbrook, Cyberspace and the Law of the Horse, 1996 University of Chicago Legal Forum 207, 215 (1996) .
13 、参见杭州刀豆网络科技有限公司诉长沙百赞网络科技有限公司等侵害作品信息网络传播权纠纷案,杭州 互联网法院(2018)浙0192民初7184号民事判决书。
14、 谢尧雯:《生成式人工智能价值链行政监管与侵权责任的匹配》,载《政法论坛》2025年第2期,第 36—46页。
15、 Deimante Rimkute, AI and Liability in Medicine: The Case of Assistive-Diagnostic AI, 16 Baltic J.L. & Pol. 64, 81 (2024).
16 、Saloomey v. Jeppesen & Co., 707 F.2d 671, 676 (2d Cir. 1983).
17、 Way v. Boy Scouts of America, 856 S.W.2d 230, 238-239 (Tex. Ct. App. 1993). 参见王乐兵:《自动驾驶汽车 的缺陷及其产品责任》,载《清华法学》2020年第2期,第93—112页。
18、 Lewin v. McCreight, 655 F. Supp. 282, 284 (E.D. Mich. 1987).
19、Tyler Lisea, Lemmon Leads The Way To Algorithm Liability: Navigating The Internet Immunity Labyrinth, 50 Pepp. L. Rev. 785, 822 (2023).
20、Lemmon v. Snap, Inc., 995 F.3d 1085, 1087 (9th Cir. 2021).
21、商建刚:《算法决策损害责任构成的要件分析》,载《东方法学》2022年第6期,第44—57页。
22、温世扬、吴昊:《论产品责任中的“产品”》,载《法学论坛》2018年第3期,第71—80页。
23、Tyler Lisea, Lemmon Leads the Way to Algorithm Liability: Navigating the Internet Immunity Labyrinth, 50 Pepp. L. Rev. 785, 822 (2023). 7
24、彭诚信主编:《人工智能责任》,上海人民出版社2024年版,第38页。
25 Deimante Rimkute, AI and Liability in Medicine: The Case of Assistive-Diagnostic AI, 16 Baltic J.L. & Pol. 64, 81 (2024).
26、徐着雨、岳远雷:《医疗人工智能算法风险防范的法治化思考》,载《医学与哲学》2023年第11期, 第67—71页。
27、吴振吉:《人工智慧医疗伤害之损害赔偿责任》,载《台大法学论丛》2022年第2期,第477—536页。
28、Simulados Software, Ltd. v. Photon Infotech Priv., Ltd., 40 F. Supp. 3d 1191 (N.D. Cal. 2014).
29、参见潘喆、陆丽鹏:《自动驾驶汽车致人损害责任的认定分歧与出路》,载《上海法学研究》2022年第 5卷,第301—306页。
30、王利明:《生成式人工智能侵权的法律应对》,载《中国应用法学》2023年第5期,第27—38页。
31 、Air & Liquid Systems Corp. v. DeVries, 139 S. Ct. 986 (2019).
32、杨洁:《论智能汽车产品缺陷认定及其责任承担》,载《东南大学学报(哲学社会科学版)》2020年第 6期,第107—114页。
33 、王乐兵:《自动驾驶汽车的缺陷及其产品责任》,载《清华法学》2020年第2期,第93—112页。
34、 韩凌月、张安毅:《人工智能产品质量的法律规制研究》,载《河南财经政法大学学报》2023年第6期, 第76—82页。
35 、周学峰:《生成式人工智能侵权责任探析》,载《比较法研究》2023年第4期,第117—131。
36 、戴昕:《无过错责任与人工智能发展——基于法律经济分析的一个观点》,载《华东政法大学学报》2024 年第4期,第38—55页。
37、 谢尧雯:《生成式人工智能价值链行政监管与侵权责任的匹配》,载《政法论坛》2025年第2期,第 36—46页。
38、Catherine M. Sharkey, A Products Liability Framework for AI, 25 The Columbia Science &Technology Law Review 240, 260 (2024).
39、 姚志伟:《生成式人工智能服务提供者在私法上的法律性质》,载《上海交通大学学报(哲学社会科学版)》2024年第12期,第127—142页。
40 、欧盟已于2025年2月撤回此立法提案,但是关于运营者的规定仍然具有参考意义。
41、王莹:《算法侵害责任框架刍议》,载《中国法学》2022年底3期,第165—184页。
42、Li Yanan, Reconstructing Defect Identification Rules for Artificial Intelligence Products, 12 China Legal Science 75, 105 (2024).
43、龙柯宇:《生成式人工智能应用失范的法律规制研究——以ChatGPT和社交机器人为视角》,载《东方 法学》2023年第4期,第44—55页。
44 、张惠彬、张秀璇:《公私法协同视野下AIGC服务提供者的内容审核义务》,载《武汉科技大学学报(社 会科学版)》2024年第6期,第62—73页。 45、秦瑞标:《大模型时代生成式人工智能治理的逻辑更新与回应路径——以〈生成式人工智能服务管理暂 行办法〉为视角》,载《时代法学》2024年第3期,第28—41页。
46、在规范服务专章中提出了在发现违法内容时及时采取停止生成、停止传输、消除等处置措施,采取模型 优化训练等措施的义务(第14条),以及建立健全投诉、举报机制,设置便捷的投诉、举报入口,公布处 理流程和反馈时限,及时受理、处理公众投诉举报并反馈处理结果等接受权利人通知的义务(第15条)。
47、沈伟伟:《技术避风港的实践及法理反思》,载《中外法学》2023年第4期,第906—922页。