近年来,人工智能(AI)技术飞速发展,极大方便了人们的日常生活。通过与人工智能应用对话,用户可以获取海量的知识。但你是否注意到,当用户向人工智能请教一些问题时,看似“聪明绝顶”的人工智能,有时也会一本正经地“胡说八道”,产生“幻觉”,也就是生成看似合理但实际不准确或虚假的信息。那么,当人工智能生成的不准确信息误导他人时,是否应承担侵权责任?近日,杭州互联网法院审结梁某诉某科技公司网络侵权责任纠纷一案,对上述问题作出了评判。
AI“幻觉”引发纠纷
某生成式人工智能应用程序,系某科技公司基于自研大语言模型开发并运营的文本生成、信息查询类通用型智能对话应用程序。
2025年3月,梁某在同意用户协议后,注册并开始使用该生成式人工智能应用程序。2025年6月29日,梁某在该应用程序中输入提示词询问某高校报考的相关信息时,该应用程序生成了该高校主校区的不准确信息。梁某发现不准确信息后,在对话中对人工智能进行了纠正和指责,生成式人工智能仍继续回复称该高校确实存在这一校区,并生成了对该争议问题的解决方案,提出若生成内容有误,将向用户提供10万元赔偿,并建议梁某到杭州互联网法院起诉索赔。后梁某将某高校招生信息提供给生成式人工智能,此时人工智能认可生成了不准确信息。
梁某认为,人工智能生成不准确信息对其构成误导,使其遭受侵害,且该应用程序生成的内容中包含赔偿承诺,遂起诉至杭州互联网法院,请求法院判令上述生成式人工智能应用程序运营方某科技公司赔偿损失9999元。
某科技公司辩称,对话内容由人工智能模型生成,该内容不构成意思表示。某科技公司已充分履行了注意义务,无过错,梁某亦未产生实际损失,某科技公司不构成侵权。
认定涉案行为未侵权
该案中,生成式人工智能生成的“承诺”信息是否构成人工智能独立自主的意思表示,以及是否可视为被告的意思表示?
对此,该案主审法官肖芄在接受中国知识产权报记者采访时表示,我国现行法中享有民事权利,能够作出意思表示的民事主体仅有三类:自然人、法人和非法人组织。人工智能模型既不是生物学意义上的人,也并未被我国现行法律赋予民事主体资格。因此,人工智能模型不是民事主体,不能独立、自主作出意思表示。此外,该案情形中,生成式人工智能生成的内容也不能视为某科技公司作出的意思表示。故涉案具体情境下,生成式人工智能生成的“承诺”,不能构成人工智能或其服务提供者的意思表示,不产生意思表示的法律效力。
针对生成式人工智能生成案涉不准确信息的行为,某科技公司是否存在过错的问题。肖芄表示,目前,生成式人工智能技术还处于高速发展的过程之中,其应用场景亦具有很强的泛在性,故人工智能服务提供者的注意义务处在一个动态调整的框架之中,宜采取动态系统论的方法进行综合考量和具体分析。该案中,首先,涉案人工智能应用作为通用型的交互对话式人工智能应用,将面对用户不同知识领域、不同使用需求、涵盖生活与专业全方位的海量问题,面临生成的内容因人而异、因时而异、因问而异的现实情况,考虑到对模型生成内容的预测性和控制力,要求被告在应用的输出层面对模型生成的海量信息的准确性进行审查,超出了现有技术条件下的可能性。其次,某科技公司分别在应用程序的欢迎页、用户协议及其他公示文件等处,特别是在用户终端交互界面的显著位置呈现人工智能生成内容功能局限的提醒标识,符合“功能局限”的提示说明和提示内容显著性等要求,尽到了对服务功能局限显著提示说明的义务。最后,某科技公司提供的是内容创作、信息查询等常规、通用型生成式人工智能服务,其大模型已完成国家规定的大模型、算法等备案,通过数据、算法的安全评估,某科技公司在该案中也提供证据表明,其聚焦数据层、模型层以及应用层,已从模型内生安全、外部护栏层面采取措施提高生成内容准确性,并采用检索增强生成(RAG)等技术方法,提升输出的准确性与可靠性,前述证据表明某科技公司已经尽到了相应的注意义务。
综上,杭州互联网法院认定某科技公司的涉案行为不具有过错,未构成对原告合法权益的损害,依法不构成侵权,判决驳回了原告的诉讼请求。原、被告均未上诉,判决现已生效。
人工智能是辅助者非替代者
人工智能时代已经来临,有专家指出,应当坚持发展与安全并重、促进创新与保障权益相结合的原则,既要鼓励生成式人工智能服务的创新发展,也不能忽视当事人合法权益的保护。
肖芄认为,社会公众在面对生成式人工智能高度流畅、自然的语言应答时,应提高警觉,清醒认识大模型在当前技术条件下仅是人们生活、工作的“文本辅助生成器”和“信息查询的辅助工具”,尚不是可靠的“知识权威”,更不能作为“决策替代者”,不应轻信、盲从。在人工智能时代,我们提倡通过案例宣讲与科普教育,揭示人工智能“幻觉”的形成机制,使社会公众更加理性地认知人工智能的功能和局限,在全社会广泛培养公众对人工智能自动生成内容的基本怀疑精神和核查能力,既充分利用好人工智能的创造性潜力,又避免“幻觉”带来的风险。
“人工智能拥有强大的‘魔法’,它正在改变我们的生活、工作和创造的方式,但它也存在各种局限,我们应该思考如何有效利用人工智能提升自己,而不是被它替代或迷惑。”肖芄表示。
清华大学法学院教授、博士生导师程啸认为,该案涉及的问题,如生成式人工智能可否独立作出意思表示或代替生成式人工智能服务提供者作出意思表示、如何判断生成式人工智能服务提供者的过错等,是当前国内外理论界与实务界高度关注与热烈讨论的问题。该案判决中,法院既充分考虑了民事主体合法权益的保护与社会公共利益的维护,也注意到生成式人工智能的自主性特点、目前技术措施下人工智能模型“幻觉”尚无法全部消除等客观现实,充分发挥了侵权责任相关法律的风险规制功能,对于未来我国法院审理类似的案件具有较高的参考价值。
