生成式人工智能技术的快速发展正引发诸多法律问题。近年来,国内外司法实践中出现了多起与生成式人工智能涉及的的侵权案件。国内法院审理了涉及肖像权、名誉权等多类纠纷,国际上也发生了多起重大诉讼。其中,美国作家与人工智能公司Anthropic的版权纠纷案于2025年9月达成和解,赔偿金额高达15亿美元,创下美国版权侵权案件已公开赔偿金额的新高。针对ChatGPT的诉讼也在不断增加,涉及内容准确性、人身伤害等多个上。 这些案件提出了一个核心问题:生成式人工智能侵权责任应当如何认定,现行民法典中关于网络侵权的规则是否适用。目前法学界看法不一,其中一个关键争议于,生成式人工智能服务提供者与传统网络服务提供者是否具有可比性。 从法律性质看,生成式人工智能服务提供者与网络技术服务提供者、网络内容服务提供者存在明显区别。网络技术服务提供者通常仅提供技术支撑,对用户上传内容的控制力有限;网络内容服务提供者虽然参与内容生成,但主要是对用户内容的编辑、审核和管理。而生成式人工智能服务提供者直接生成新的信息和内容,这种生成行为本身就构成了一种作为。由于人工智能系统具有自主性特征,服务提供者对生成内容的控制力要弱于传统网络内容服务提供者,这使得责任认定变得更加复杂。 现行民法典第1195至1197条规定的网络侵权规则主要由通知规则与知道规则组成,其核心目的是为网络服务提供者设定及时采取必要措施以预防和制止侵权行为的义务。这套规则的适用对象是那些本身没有直接实施侵权行为的网络服务提供者,特别是网络技术服务提供者。然而,生成式人工智能服务提供者输出内容的行为属于直接实施的作为,这与网络侵权规则所调整的侵权关系存在根本性差异。 生成式人工智能侵权的成因也更加多元复杂。侵权可能源于数据训练阶段的侵权行为,可能来自系统内置的侵权危险,也可能由于模型幻觉等系统原因而产生,甚至可能源于用户故意输入侵权提示的操控行为。这种多元的侵权成因与传统网络侵权的单一性存在显著差异。如果机械地适用通知规则与知道规则,既无法有效预防和制止侵权行为,也不利于鼓励生成式人工智能技术的创新与发展。 法律规范往往基于特定的社会现实和技术背景。生成式人工智能服务是立法者在确立网络侵权规则时未能预见的新型服务,现行规则也不是以其为目标而设计的。这意味着简单地类推适用现有规则可能导致法律适用不当,甚至阻碍新兴产业的发展。 面对此挑战,法学界和实务界需要进行更加深入的理论思考。一上,应当明确生成式人工智能服务提供者的法律地位和责任边界,建立与其特殊性相适应的归责原则和过错认定标准。另一方面,需要在保护权利人合法权益和鼓励技术创新之间找到平衡点,制定更加科学合理的法律规范体系。这不仅涉及侵权责任的具体认定,还涉及因果关系的判断、责任主体的确定以及责任承担方式的选择等多个层面。
当技术创新速度超越法律更新周期时,如何构建兼具前瞻性与操作性的规制体系成为全球治理的共同课题;在保护合法权益与促进技术发展之间寻找平衡点,不仅需要法律智慧,更考验着社会治理的现代化水平。这场关于责任认定的讨论,或将重新定义数字时代的权利边界。