光2023年就有人利用ai干出这种事

你肯定想不到,光2023年就有人利用AI干出这种事。就在2023年5月,浙江省绍兴市上虞区人民法院审理了一个案子,彻底给大家提了个醒。被告人谢某为了钱,通过张某从赵某那儿买了一大堆个人信息,足有3400多条。拿到这些信息后,谢某又找了个懂技术的张某,让他用AI把照片做成会眨眼、会点头的动态视频。 结果这帮人拿着这些伪造的视频,轻松攻破了某大牌白酒的人脸识别系统,一口气抢了60多瓶茅台酒卖钱。这笔买卖他们一共赚了1.2万。最后法院把谢某、张某、赵某三个人全都判了刑。 这事儿其实挺典型,AI现在真的很危险。它不光侵犯了老百姓的隐私和财产,更把大家对生物识别技术的信任都给打破了。人脸识别现在到处都在用,要是被AI伪造了可怎么办? 更深层的问题是,AI带来的安全风险是全方位的。一方面数据泄露很容易发生;另一方面,“深度伪造”的视频已经开始被别有用心的人用来搞政治和社会破坏了。 面对这么个“双刃剑”,咱们不能躲着走,得赶紧建一套靠谱的治理体系。现在国家在法律、技术、协同治理和教育这几个方面都在使劲。法律这块儿早就有《个人信息保护法》之类的条文了;技术上也在研发各种反制手段;部门之间也得联手管起来;最后大家还得提高警惕。 总之科技创新不能乱来,底线必须守住。只有发展跟安全一起抓,把法律立起来、把技术攻下来、把责任压下去、把全民素养提上去,才能让AI在安全的轨道上跑起来。