ai乱输出个啥补偿条款,法院直接戳穿了这一点:ai 随口说的承诺根本不算数,你这就叫认知

话说那10万元赔偿金的事儿,杭州互联网法院终于有个说法了。以前觉得AI随随便便就能扯出假新闻,其实人家是真懂行,判决里直接给AI幻觉下了定义,说这是模型在概率生成时的固有缺陷。麦可思研究院最近做了个调研,到了2025年大概八成的高校师生都碰见过这种情况。因为这些虚假信息要是钻进教育、看病或者投资的关键环节,那可真能把人坑惨。 所以法院在这个案子里划清了界线。平台肯定得负责,毕竟人家得用技术本事去挡住那些瞎话,特别是那些重大的事儿,得明确提示风险。但也没把责任全都往技术上推,毕竟还得给创新留条活路。 最有意思的是在说用户那边的事儿。那个考生家长本来想用AI查高校信息,结果AI乱输出个啥补偿条款,他还当真了去打官司。结果法院就直接戳穿了这一点:AI随口说的承诺根本不算数,你这就叫认知偏差。很多人还是太迷信机器了,不管是情绪化的话还是瞎编的故事都当真。这其实是挺危险的,自己把脑子变迟钝了。 现在看来,光靠几个法条肯定不行。技术上得改一改算法、加个核实环节;法律上得把审核的标准弄得更细点;咱们老百姓也得养成个习惯,就是把AI当工具使,别把它当老师或者专家。 这事儿本身也就是个小官司,但它代表了一个风向标:以后想用AI就得守规矩,还得懂点道理。只有大家都配合好了,这才是真正健康的发展路子。