最近,有两起跟AI“假人”有关的事,把大家都吓了一跳。先是演员王劲松的脸被AI深度伪造了,骗子拿这张脸拍视频骗钱,逼真到王劲松自己都分不清,连家人都看傻了。再是复旦大学的肖仰华教授团队搞出个AI智能体,自己发朋友圈、评论区聊天,弄得他的朋友还以为是真的肖老师,赶紧留言问:“你真的是肖老师吗?”一边是坏人利用AI假扮别人骗人,一边是学术展示用AI代替自己。看着好像不一样,但其实都是让人没法确定身边的人是不是真的。要是你的脸、声音、甚至说话做事的样子都能被AI模仿或者代替,那大家相互信任的基础可就危险了。仔细想想,这两种情况的影响和处理方式还真不太一样。那种伪造视频的诈骗,是故意设计的骗局,主要污染了信息的真实性。背后的问题是监管跟不上。虽然有法律规定生成式内容得有标识,但灰产总是能找到办法躲避监管,而且平台审核也很慢,“事后删除”根本赶不上“事前造假”的速度。还有法律对这种违法的惩罚太轻了,像王劲松说的那样,违法成本太低。而肖仰华教授团队开发的那个智能体就更不一样了,它已经开始在表达观点和互动情感上产生影响了。它能自己规划好步骤发朋友圈互动这一整套动作链,说明AI能力已经从静态的身份冒用升级到动态的行为代理。现在问题来了:这种智能体能被当作法律上的主体吗?它的行为有什么伦理边界?要是造成损失谁负责?这些问题已经挑战了现有的社会规则。这个时候我们需要做的不是让技术停下来,而是得给AI的各种应用场景制定清楚的规则。对于那些用来骗人的假AI必须严惩不贷,把违法成本提上去;对于那些前沿的创新技术要弄清楚谁负责什么事。这就是为什么要防止这种“证明我是我”的荒诞事情继续发生。