各位听众朋友们,在2023年这个时间点上,咱们聊聊一个挺有意思的事。大家应该都知道,人工智能这东西现在越来越火了吧?特别是生成式AI,就是那种自己能创作内容的。可是,大家想想,机器创作出来的东西要是出错了,谁来负责呢?这事儿最近就有人较真了。 杭州互联网法院最近判了个全国首例的案子,跟这个生成式AI出了个“幻觉”信息有关系。说白了,就是机器自己把信息搞错了,结果导致侵权纠纷。法院这回判决,就是要把AI服务中各方该负的责任给弄清楚,给这个行业发展定个规矩。 大家肯定最关心的是,机器自己打出的那些承诺书有没有法律效力。法院说了,AI模型又不是人,它自己作的保证不能当数。要想让这些承诺算数,还得是服务提供者自己主动去设置或者传达才行。这么判挺合理的,既不跟咱们现行的法律体系打架,又能把责任划分明白。 再说服务提供者的义务这块,法院直接援引了国家网信办等七部门发的那个《生成式人工智能服务管理暂行办法》。他们强调了个事儿:虽然AI生成的内容不算产品质量法管的范畴,但服务商还是得好好审一审。具体来说,就是要对生成的内容经常管一管,发现违法的赶紧停掉或者删掉;还要优化算法让内容更靠谱;最后还得提醒用户这东西可能会有不准确的风险。 法院还特别解释了一下“技术中立”这个原则。他们觉得服务商不能拿算法随机就把自己的责任推得一干二净,在技术能控制的范围内还得尽到责任。比如说那些明显有虚假宣传或者侵犯别人名誉的内容,平台就得想办法过滤掉。这种处理方式既鼓励技术进步,又逼着企业把伦理和责任放在心里。 这就好比现在工信部统计的那200多个上线的AI大模型一样,虽然现在行业发展得挺猛,但也带来了不少像“幻觉”、泄露隐私这样的问题。这次判决其实是给大家吃了颗定心丸,也给咱们以后立法积累了经验。 中国政法大学人工智能法治研究中心的专家也说了:这个判决既没有因为是新技术就放松要求,也没生搬硬套老一套的产品责任规则。而是基于服务的本质来搭建责任框架的,对全球治理都有参考价值。 首案审结是我国司法应对新技术的一大步。以后肯定还会有更多这样的案例出现,咱们的法律规则也得跟着动起来调整平衡。咱们的目标就是让这些新技术在法律的轨道上好好服务经济社会发展。