智能服务信息误差引发的纠纷,其实是在司法界定平台责任边界时遇到的难题。大家都知道,现在智能技术在生活里

上海交通大学凯原法学院副教授林洹民说,智能服务信息误差引发的纠纷,其实是在司法界定平台责任边界时遇到的难题。大家都知道,现在智能技术在生活里到处都是,用得越多,因为内容不准出的错也就多了。杭州互联网法院最近就判了这么个案子,有人用某个智能程序查学校报名信息,结果查到的全是错的,程序还在对话里说要是信息错了可以赔钱。最后这人觉得被误导了,维权费还挺高,就把平台给告了。法院一审把原告的要求都给驳回了,现在这判决也生效了。 这事儿让人看清楚了技术发展中的一个大麻烦:平台要是靠算法和大数据弄出来的内容出了错,责任该怎么算?从技术上看,现在的智能系统就是拿一大堆数据练出来的,输出的结果好不好看,全看数据准不准、算法逻辑通不通。这种因为数据原因产生的偏差,行话叫“幻觉现象”,明明是假的,但看着又挺有道理。所以法官判案子的时候得小心点,别把技术本身的缺陷跟平台故意犯错混为一谈,不然一罚太重会把新技术吓回去。 法院在这个判决里说了,智能服务在现有的法律里不算有民事权利的主体,它生成的内容也不算平台自己发的意思表示。就算程序在聊天里说了会赔钱的话,也不能直接就认定这是平台必须要遵守的合同义务。这下好了,法院规定这类服务要按“过错责任原则”来算:平台要不要赔钱得看它有没有尽到合理的小心劲儿。那么平台具体要小心到什么地步?判决是这么分层说的:对于那种法律不让发的有害信息,平台得严防死守;对于一般的误差,得大大方方告诉用户这技术有毛病,还得用点招儿降低出错的风险。 案子里被告平台在协议和界面上都贴了好几处提示,说清楚了可能出错的地方,法院觉得这就算做到家了。这案子不光是为了解决那个原告的事。现在咱们国家智能技术产业正火着呢,到处都能用得上,可法律和规矩还在慢慢补全中。司法上把责任说清楚了挺好,既能让用户别太信技术,也能给企业指条明路怎么合规。 展望未来技术越变越快、法律越改越细,以后智能服务的责任机制肯定还得再细一点。企业得在把技术搞稳的同时多跟用户说说风险;监管部门也可以试试搞分级分类的管理办法,按照用的场合不一样设定不一样的义务标准。只有技术、法律和社会监督一起使劲,技术才能走得稳当点。 这案子虽然是用户输了没讨到好处,但意义大得很。它像面镜子照出了智能时代到底谁该负责的问题,也提醒咱们:享受方便的同时得有脑子清醒点、把规矩立好了、大家伙儿一起管着点才能在创新和安全之间找到个中间点,让技术发展得顺顺当当地往前跑。