全国首例因生成式人工智能“幻觉”引发侵权纠纷宣判,厘清承诺效力与责任边界

随着生成式人工智能技术的广泛应用,其在提升信息获取效率的同时,也带来了前所未有的法律挑战。

近日,杭州互联网法院审结的一起案件,直面了这一技术应用前沿的核心问题:当人工智能生成的不准确信息误导用户时,谁应该为此承担法律责任?

案件起源于一次典型的AI"幻觉"现象。

用户梁某在使用某科技公司开发的生成式人工智能应用查询高校招生信息时,该应用生成了关于该高校某校区的错误信息。

在梁某指出错误后,AI应用非但未予纠正,反而继续坚持其错误表述,并主动承诺若生成内容有误将赔偿用户十万元。

当梁某提供官方招生信息后,AI应用才承认错误,甚至建议用户向法院起诉索赔。

这一系列互动引发了一个深层次的法律问题:AI生成的"承诺"是否具有法律约束力?

法院在判决中明确指出,人工智能不具有民事主体资格,因此不能作出具有法律效力的意思表示。

这一认定基于四个方面的理由:其一,人工智能缺乏民事主体资格,无法充当意思表示的传达人、代理人或代表人;其二,服务提供者并未通过AI工具来设定或传达其真实意思;其三,一般社会观念和交易习惯尚不足以使用户对随机生成的承诺产生合理信赖;其四,无证据表明服务提供者曾作出愿受AI生成内容约束的外在表示。

因此,AI的"赔偿承诺"不产生任何法律效力。

更为重要的是,法院在责任认定中确立了适用于生成式人工智能服务的归责原则。

根据《生成式人工智能服务管理暂行办法》,此类服务属于"服务"范畴而非产品质量法意义上的"产品"。

因此,应适用民法典第一千一百六十五条规定的一般过错责任原则,而非产品责任中的无过错责任原则。

这一选择具有深刻的理论和实践考量。

首先,生成式人工智能服务缺乏具体、特定的用途与合理可行的质检标准,难以适用产品责任的严格标准。

其次,AI生成的信息内容通常不具备民法典侵权责任编所指的高度危险性,不宜对信息本身采用无过错责任。

再次,服务提供者对生成信息内容缺乏足够的预见和控制能力,难以承担无过错责任所要求的绝对责任。

最后,从产业发展的政策导向看,过度的无过错责任可能不当加重服务提供者的负担,不利于人工智能产业的健康发展。

在适用过错责任原则的框架下,法院对侵权构成的各项要件进行了逐一审查。

关于侵权行为的认定,法院指出,用户主张的损害是因信息不准确导致的纯粹经济利益被侵害,而非人格权、物权等绝对权被侵害。

这意味着不能仅依据权益本身被侵害而认定行为的非法性。

法院进一步分析了服务提供者是否存在过错,以及其过错与损害之间是否存在因果关系,为后续类似案件的处理奠定了基础。

这一判决反映了司法机构在面对新兴技术时的理性态度。

一方面,法院明确了人工智能的法律地位和限制,防止了对AI能力的过度拟人化;另一方面,通过适用过错责任原则而非无过错责任原则,在保护用户权益和促进产业发展之间找到了平衡点。

这种平衡对于推动人工智能产业的规范发展至关重要。

值得注意的是,这一判决还涉及对"纯粹经济利益"损害的认定问题。

在传统民法中,纯粹经济利益的保护往往受到限制。

但在信息社会中,信息的准确性直接关系到用户的决策质量,因此如何在保护用户权益和避免过度扩张责任之间找到平衡,成为了新的课题。

法院的处理方式为这一问题的解决提供了有益的参考。

该案的审结标志着我国司法实践在应对技术革新带来的法律挑战方面迈出重要一步。

随着人工智能应用场景的不断拓展,如何在保障用户权益与促进技术发展之间寻求平衡,将成为立法、司法和监管部门长期面临的课题。

这一判决不仅为解决类似纠纷提供了裁判指引,更为构建适应数字时代的新型法律框架积累了宝贵经验。