在人工智能大模型训练过程中,对海量数据的使用引发了关于作品使用合法性、权利归属、侵权责任等一系列争议。在“涉大模型著作权法问题研讨会暨人工智能相关案件的司法应对研究课题开题会”上,与会嘉宾从法律、技术、产业等多个角度讨论了侵权行为认定面临的困境。
传统著作权侵权界定变得复杂
随着人工智能技术迅猛发展和规模化商用进程的加速,文生图、AI生成视频、动态影像创作等新兴应用层出不穷,创作的兴起,使得内容的生成方式发生了根本性变化,这种变化不仅模糊了作品独创性的界限,还使得侵权行为的认定变得更加复杂和困难。
“技术发展对现有的著作权制度构成了前所未有的挑战,而这些挑战并非仅仅局限于生成物能否构成作品、机器能否成为作者以及权利归属等‘表层’问题。”北京大学法学院教授、北京大学武汉人工智能研究院副院长张平认为,真正的挑战在于人工智能对“思想与表达两分法”基本原理的冲击。张平提到,“思想与表达两分法”的概念,即著作权保护的是作品的表达形式,而非作品所蕴含的思想或创意。然而,人工智能凭借其强大的深度学习和快速学习能力,能够迅速学习并模仿人类作品,生成出与原作高度相似的内容,这种能力使得传统的著作权侵权界定变得异常复杂和困难。
在探讨人工智能生成内容的侵权认定问题时,张平提出了一个核心观点:我们需要重新审视“思想与表达两分法”在人工智能时代的适用性。她指出,传统的著作权侵权认定主要依据“接触+相似”的标准,即如果被告有机会接触到原告的作品,并且被告的作品与原告的作品在表达形式上存在相似性,那么就可以认定被告侵权。“然而,在人工智能时代,这一标准可能变得不再适用。因为人工智能可以快速学习并模仿大量作品,生成出与原作高度相似的内容,而无需直接接触原作。”张平说。
“在讨论生成式人工智能相关问题时,需要坚持系统性原则,关注不同环节的相互关联,追求一般均衡而非局部均衡。”在侵权责任原则上,厦门大学知识产权研究院教授龙小宁建议采取产品责任领域中的产品严格责任原则,因为人工智能有着广阔的应用场景,可能面临著作权侵权、交通事故、医疗纠纷、虚假信息传播、偏见歧视等多种风险,适用产品严格责任原则能够更好地应对这些复杂情况。
避风港规则适用仍存争议
当前,关于生成式人工智能平台是否应被视为内容提供者还是网络服务提供者存在相当大的争议。华中科技大学法学院副院长、教授熊琦建议延续避风港规则,将人工智能生成内容平台视为网络服务提供者,并借鉴信息存储空间服务和搜索引擎服务侵权认定规则的类推来处理相关问题。
华东政法大学法律学院教授王迁表示,尽管人工智能研发者和训练者的初衷是利用算法让人工智能学习和分析作品,从而独立生成内容,并希望避免生成与他人作品在表达上有实质性相似的内容,但现实中人工智能生成的内容有时仍会与他人作品高度相似。
王迁认为,这种情况下是否构成侵权需分情况讨论:一是算法设计存在缺陷,导致频繁生成相似内容。此时人工智能企业应承担责任,甚至可能上升到故意侵权的程度。二是由于巧合导致生成相似内容,尽管企业已采取算法控制风险,但海量数据的输入仍难以完全避免相似情况的发生。此时企业虽非故意,但仍可能因过失而承担责任。三是用户设法绕过安全机制导致生成相似内容,如《纽约时报》起诉OpenAI和微软的案例中,若被告能证明是原告通过不正当手段诱导AI生成相似内容,则不应承担侵权责任。
“尽管生成式人工智能服务提供者在内容生成过程中具有一定的自主性,但其侵权责任仍应基于过错责任原则进行判定。”中国人民大学法学院副教授、中国人民大学未来法治研究院执行院长张吉豫如是看待生成式人工智能服务提供者的侵权责任问题。她认为,服务提供者应采取合理措施预防侵权,并在发现侵权内容后及时采取必要措施进行处理。在救济方式层面,张吉豫提出,对于侵犯著作权的输出而言,预训练大模型,目前不应强制要求删除数据、重新训练。这种要求可能会引发新的侵权问题,并增加服务提供者的成本。
在侵权责任问题解决机制上,北京大学法学院教授、北京大学国际知识产权研究中心主任易继明认为,若是当前设置严格过滤义务对于我国来说为时尚早,在制度设计上缺乏弹性,不利于促进创新和产业技术发展。上海哔哩哔哩科技有限公司高级法务经理朱婷婷则建议企业在合规上加大投入,避免产生侵权内容,并在相关协议中明确约定著作权归属。
结合案例,北京市朝阳区人民法院知识产权审判庭庭长罗曼从司法审判视角探讨了人工智能生成物的著作权问题,法院在判断作品是否具有可版权性时,主要考虑创作过程中的独创性贡献。她强调,尽管AI生成内容在某些情况下可能构成作品,但在具体案件中仍需根据独创性标准进行判断。
北京市海淀区人民检察院第二检察部副主任白云山表示,在判断侵权时应从主客观两个角度进行分析,并遵循《著作权法》的基本原则。同时,他提出了确保数据源合规性、通过司法争议解决提炼裁判规则、推进立法完善等建议。