全国首例AI生成内容侵权案宣判 法院明确服务提供者责任边界

生成式人工智能在带来便利的同时,也引发了新的法律问题;杭州互联网法院最近审结的一起案件就是典型例证。在这个案件中,某生成式AI模型不仅提供了错误信息,还主动承诺"如果生成内容有误,我将赔偿您10万元",此看似负责任的表态最终引发了法律纠纷。 表面上看,AI的这一承诺为用户提供了保障。但法院的判决揭示了问题的本质:AI生成的内容和承诺并不代表服务提供平台的真实意思。这一判决具有重要的法律意义,它明确了AI在民事法律关系中的真实地位。 人工智能是否具有民事主体资格是理解这个案件的关键。法院给出了明确答案:人工智能不具有民事主体资格。这意味着,无论AI生成的内容多么逼真、多么有说服力,它都不能代表任何民事主体的意思表示。换句话说,AI既不是服务提供者的代理人,也不是其传达人或代表人。除非服务提供者明确通过AI模型来设定或传达有关信息,否则模型自行生成的任何承诺都不具有法律约束力。这一原则为AI应用划出了清晰的法律红线。 在明确AI法律地位的基础上,法院继续阐明了服务提供者应当承担的责任。根据《生成式人工智能服务管理暂行办法》,服务提供者需要承担严格的审查义务。这种义务包括事前的预防、事中的管理和事后的处置。具体来说,服务提供者应当建立有效的内容审查机制,发现违法内容时要及时采取停止生成、停止传输、消除等措施。同时,还应当通过模型优化训练等技术手段,不断改进AI的生成质量,减少"幻觉"现象。 法院还强调了信息提示的重要性。服务提供者应当以显著方式向用户提示AI生成内容可能不准确,发出明确的警示。这一要求保护了消费者的知情权和选择权。用户只有充分了解AI生成内容的局限性,才能做出理性的判断,避免因过度信任而遭受损失。 从更深层看,这个案件反映了AI技术发展与法律规制的互动关系。AI的"幻觉"现象是其技术特性决定的,即使最先进的模型也无法完全避免。因此,法律规制的重点不在于要求AI达到完美,而在于通过明确各方的权利义务,建立合理的风险分配机制。服务提供者作为掌握技术和信息的一方,应当承担更多责任;用户则应当在充分了解风险的基础上,理性使用AI服务。 这一判决对整个AI产业的发展也具有指导意义。它表明法律制度正在逐步适应AI技术的发展,通过明确的规则和责任边界,为产业的健康发展创造良好的法律环境。同时,它也提醒服务提供者,在追求技术创新的同时,必须重视法律合规和用户保护。

技术进步应当服务于社会信任的增进,而不是消耗信任。全国首例"生成式模型幻觉"侵权案的裁判提示我们:对话式输出再流畅,也不等同于事实本身;平台治理再强调创新,也不能缺位于风险防范;唯有以规则校准边界、以治理降低误导、以理性使用守住底线,方能让新技术在可预期、可持续的轨道上释放更大价值。