原标题:生成式人工智能平台著作权侵权使用者责任探究 构建兼顾技术创新与版权保护新规则体系

作者简介:冯晓青,湖南长沙人,中国知识产权法学研究会副会长,中国政法大学教授、博士生导师,知识产权法研究所所长 ,中国政法大学无形资产管理研究中心主任,知识产权法国家重点学科学术带头人、知识产权法专业博士点负责人。为第三批国家"万人计划"哲学社会科学领军人才。
随着ChatGPT等生成式人工智能的迅猛发展,其已成为内容创作的重要工具。然而,其在提升创作效率的同时,也带来了显著的著作权侵权风险。人工智能生成内容(AIGC)独特的生成模式正深刻影响着传统的著作权侵权认定规则,使责任主体、归责原则等问题面临新的挑战。
当前学界对平台与开发者责任关注较多,而对使用者在侵权链条中的地位与责任研究不足。使用者作为内容的直接输出与传播者,通过输入提示词、选择模型等行为实质参与了生成过程,甚至可能引导系统输出受保护作品,但其行为是否构成直接或间接侵权,在现行法律框架下并不清晰。
人工智能生成内容对传统著作权侵权认定规则的挑战
传统知识产权侵权认定中,在著作权法领域,除合理使用等限制外,未经许可复制、改编等使用行为即构成侵权,过错通常不影响侵权认定,仅影响损害赔偿。然而,AIGC的生成依赖于海量数据训练,可能未经授权吸收并再现受保护作品,导致使用者在不知情时涉嫌侵权。这使得传统“无过错亦侵权”的标准面临适用困境。
使用者往往难以知晓训练数据来源及合法性,若坚持严格无过错侵权认定标准,可能导致其承担过重风险,抑制技术应用。但若完全排除其责任,则显失公平,特别是当使用者通过特定提示词诱导生成高度相似内容时,其已超越单纯工具使用范畴,具备一定创作参与性。
此外,传统的“接触+实质性相似”规则在AIGC语境下也难以直接适用。一方面,使用者通常未直接接触原作品;另一方面,生成内容往往是对原作风格、结构等元素的模仿或重组,而这些元素在传统著作权法中可能被归为思想范畴,难以认定“实质性相似”。因此,亟须构建兼顾技术创新与版权保护的新规则体系,合理划分开发者、平台与使用者的责任边界。
人工智能生成内容场景下使用者著作权侵权的认定规则
其一,“接触+实质性相似”规则的重构。在AIGC场景下,使用者一般并未直接接触原作,内容系通过算法模型间接产出。传统“接触”要件的设立旨在保护独立创作自由,但AIGC生成的内容并非独立创作的结果,而是模型对已内化作品特征的调用与再现。因此,此处的“接触”要件应作扩张解释,理解为模型对作品的吸收和训练。若使用者明知或应知模型可能吸收版权内容进行训练,仍通过提示词引导生成高度相似内容,可推定其具备间接接触的可能。
对于“实质性相似”的判定亦需调整。传统上主要采用“抽象—过滤—比较”三步法或“整体感觉测试法”。三步法虽有助于区分思想与表达,但在AIGC场景下,生成内容常表现为风格、结构等元素的隐性重组,该方法难以有效识别。尤其值得注意的是,人工智能能在短时间内精准复现特定风格,实质上压缩了原作者通过市场先发优势获得补偿的空间。因此,在判断“实质性相似”时,应更多转向考虑生成内容是否可能导致公众对作品来源产生混淆,以及对原作市场的潜在替代性影响,可以“整体感觉测试法”为主,并辅以公共领域保留原则进行平衡。
其二,使用者过错认定规则的形塑。《民法典》第1165条确立了过错责任原则。在著作权侵权中,故意侵权(如故意诱导模型生成侵权内容)的责任认定相对明确。难点在于使用者“过失”的认定。鉴于生成式人工智能输出的随机性与一定不可预见性,需结合具体场景考察使用者的注意义务标准。
根据权利与义务、利益与风险一致的原则,注意义务应与使用者的收益和风险控制能力相匹配。对于以营利为目的的商业性使用(如商用发布),使用者应承担较高的注意义务,需进行事前合理审查(如检索著作权登记信息),若未尽此义务,可构成一般过失。对于普通个人用户,其注意义务标准可相对降低,但应对明显受版权保护的知名作品保持合理规避义务。若生成内容与知名作品高度相似,使用者仍进行侵权性利用,则可推定其存在重大过失。技术的不完全可控性不能成为使用者完全免责的理由,其应在输入意图与后续利用等可控环节承担相应的审慎注意义务。
使用者著作权侵权责任的类型化
一是使用者的单独责任。生成式人工智能的开发者和服务者,相较于传统网络服务提供者,对用户具体输入内容及AIGC后续利用方式的控制力和预见性较弱。他们主要通过完善模型设计、提供使用指引和风险提示等方式,在技术可行范围内预防侵权。若其已尽到合理注意义务(如对明显侵权提示进行警示、设置投诉机制等),对侵权结果的发生不具有预见和避免可能性,则不应苛责。此时,若使用者系故意利用AI生成侵权内容,应基于其主观过错和行为控制力,由其承担单独侵权责任。近期司法实践(如上海市金山区人民法院审理的“美杜莎”LoRA模型案)已体现出这一思路,在平台尽到义务的前提下,认定由用户独立担责。
二是使用者和提供者的连带责任。这主要存在于两种情形:其一,若使用者故意侵权,而人工智能提供者未建立合理的投诉机制、风险提示机制,或对模型数据未尽到与技术发展水平相应的审核义务,存在主观过错,则应与使用者承担连带责任。其二,若使用者输入了合法提示词,但生成内容仍出现侵权元素,使用者未尽到合理的审查义务即进行发布传播,则其存在过错;同时,该结果也可能反映出提供者在模型设计、数据筛选或过滤机制上存在缺陷,且该缺陷与侵权结果有直接关联。此时,提供者亦有过错。双方应根据各自过错程度和原因,对外承担连带责任,对内承担按份责任。广州、杭州互联网法院审理的相关AI图片侵权案均体现了此类责任划分的考量。
三是使用者和提供者的公平责任。生成式人工智能的某些风险是社会技术发展过程中难以完全避免的。当提供者与使用者均已尽到合理注意义务,均无过错,但损害仍然发生时,基于分配正义和风险分散的理念,可考虑适用公平责任原则。即根据双方的收益情况、风险控制能力及防范成本等因素,按比例对著作权人的损失予以适当补偿。这有助于在激励技术创新与保护权利人利益之间寻求平衡,避免由某一方单独承受不可预见的技术风险,也体现了对著作权的基本尊重。
