生成式人工智能技术的“幻觉”

这次杭州互联网法院审理的一起关于生成式人工智能技术应用的案件,让我们意识到这个技术在带来便利的同时,也给法律带来了很多新问题。根据这次案件,用户通过某科技公司开发的应用程序获取高校报考信息时,发现程序输出的主校区位置信息并不准确,尽管程序在交互过程中曾承诺赔偿,但用户核实后依然遭受了时间和经济成本损失。这次纠纷把生成式人工智能技术中长期存在的“幻觉”问题正式引入了司法审查范畴。 清华大学法学院的专家们认为,这次判决对这个快速发展的行业有着深远的影响。一方面,它明确了技术服务和实体产品的责任边界,帮助行业建立了平衡创新和保护用户权益的机制。另一方面,这次判决也促使企业重新审视服务设计和风险管控,让它们需要在模型训练、内容审核和用户提示等方面加强规范性建设。 这次案件还揭示了技术特性与法律框架之间存在衔接空白的问题。法院审理指出,根据我国现行民事法律制度,只有自然人、法人和非法人组织才能做出意思表示。生成式人工智能作为一个技术工具,没有独立的民事主体资格,所以它的输出内容不能直接视为开发企业的意思表示。承办法官还强调,在缺乏企业明确授权或特殊应用场景支撑的情况下,用户对机器生成承诺很难构成法律保护的合理信赖。 责任认定原则的选择也是一个争议点。生成式人工智能服务具有动态化和个性化特征,其输出内容会根据用户指令、数据更新和算法调整而变化。如果采用无过错原则来认定责任,可能让服务提供者承担超出技术可控范围的风险。法院经综合研判后认为这种服务更适用于过错责任原则。 这次案件判决对未来有很大影响。司法裁判确立了行业规范导向,帮助行业建立更健康有序的发展机制。同时也推动技术与法律协同共进。现在全球范围内对生成式人工智能的治理仍处于探索阶段,中国通过个案审理逐步厘清技术应用的法律边界。 未来还需要构建动态协同治理体系来应对潜在风险。技术层面需要推进算法透明度建设,法律层面可以探索分级分类监管机制。企业也应该完善内部控制体系并在用户服务协议中明确技术特性和使用边界。 总之,杭州互联网法院这次裁判就像一颗石子投入湖面一样激起涟漪推动了智能时代前行道路上规范发展并重的平衡。只有坚持技术创新与规范发展并重才能让技术进步真正服务于人类福祉提升。