全国首例跟ai 相关的侵权案件,给咱们今后怎么看待ai 服务提了个醒

最近杭州互联网法院处理了一起全国首例跟AI相关的侵权案件,给咱们今后怎么看待AI服务提了个醒。事情是这样的,原告梁某在某科技公司运营的一个AI应用上查学校报考信息,结果AI提供了错误的信息。梁某跟这个AI提意见,说它说得不对,结果这AI还死鸭子嘴硬,坚持原来的说法,还自动弹出来一句“如果有错误就赔10万元”。梁某被气坏了,就把这家科技公司给告了,要求赔偿9999元。 被告方辩解说,这事儿怪不到他们头上。他们觉得AI自动生成的东西不是公司的意思表示,公司也没干什么特别不好的地方。 审理案子的法院针对这几个问题:AI自动说的话算不算数、这种服务该定什么法律责任、公司有没有责任这三个问题专门说了话。 法院最后给出了答案:AI生成的内容不算数,因为它不是一个有独立人格的东西,不能代表公司说话。那个说赔10万的话也是它随机瞎蹦出来的,不符合大家平时信得过的东西。这时候服务提供者其实没法控制它乱说话。 接下来是责任问题。法院觉得这种服务归《生成式人工智能服务管理暂行办法》管。根据《民法典》里的规定,这事儿归一般过错责任原则管,不是像卖东西一样的无过错责任。为什么呢?因为AI生成的东西五花八门没法统一检查;也不像高压锅一样会突然爆炸伤人;服务商也没法完全预测它会说什么;如果非要让服务商承担无过错责任,那对企业来说压力太大,会影响技术发展。 然后法院就分析是不是侵权。原告说自己亏了钱赔了功夫还错失了机会。法院觉得这主要是经济损失。法律上不能一看到损失就认定人家错了,还得看服务商有没有管好自己的产品。这家公司在协议里已经告诉用户AI可能会说错话,还给了修改错误的通道。现有证据显示不了他们故意害人或者没好好干活。 所以法院最后裁定不侵权,把原告的诉求给驳回了。 这个案子不仅解决了梁某的问题,也给了以后的AI治理很多启发。它告诉大家:AI说的不算数不能直接让公司背锅;搞AI服务得有过错才负责,得保护权益和鼓励创新两者兼顾;以后大家用技术得在规矩里办事,要清楚透明还得会改错。 这是全国头一回在法庭上聊“幻觉”导致的侵权问题。这次裁判划出了清晰的责任线,既支持了技术发展又给了规范行为的依据。以后大家遇到类似情况都能参考这个判决思路往前走。