咱先不提那些新闻里的大词儿,就说现在身边的事儿。你在外地出差,电话那头“你老婆”急得像热锅上的蚂蚁,让你赶紧转账;或者在班级群里,“班主任”拿着熟悉的声音喊你交学费。这都是AI技术搞的鬼。只要在电脑上捣鼓几分钟,普通人也能弄出几乎和真人一模一样的视频、声音还有照片。这要是被坏心眼的人利用,真能把人坑死。 最近有个视频在网上传疯了,说是以色列士兵被伊朗火箭弹打得躲在墙后头哭。播放量一下子冲到了160万。德国电视二台查了一下,发现这完全是AI生成的玩意儿。士兵的肩章一会儿露一会儿藏,上面的字全是乱码;网友们也说这制服、哭声和枪都跟真的不太一样。连专业的新闻机构都快管不住自己的记者了。 2月份的时候,德国电视二台把一个驻纽约的记者给炒了鱿鱼。原因是他报道美国移民局的行动时,混进去一段Sora生成的假视频。画面左下角清清楚楚写着Sora的水印。他们现在赶紧给员工开强制性培训课,就是想管住大家手里的AI工具。“要是把新闻准则给扔了,公信力就没了。”总编辑贝蒂娜·绍斯滕这么说。 不光现在的事儿不靠谱,连过去的历史也被篡改了。今年年初,达豪、布痕瓦尔德这30多家集中营纪念机构联合发信抗议。德国历史学家伊丽丝·格罗舍克说,AI做的照片和历史老照片长得太像了:都是黑白底、瘦骨嶙峋的人、铁丝网后头的小孩。但你仔细瞅就会发现不对劲。那些人的长相都差不多高也差不多漂亮。“AI把纳粹受害者变得年轻漂亮了。”格罗舍克说,“这种美化扭曲了历史真相。” 比造假内容更可怕的是,AI还能伪造“大多数人的意见”。一个国际团队在美国《科学》杂志上发文说数字操控进入了新阶段。以前发假信息是单个人的账号在搞事,现在变成了一群伪装成真人的AI机器人在互相对话、模仿情绪、互相附和。 德国康斯坦茨大学的研究人员达维德·加西亚解释说,这些AI机器人是一组可以被人或者组织控制的智能体。它们有固定的身份和记忆,能模拟人的行为。它们可以为了同一个目标一起行动,也能根据实时发生的事和用户的反应来调整自己的说法。“真正的风险不在于个别假消息。”加西亚说,“而是操纵者可能造出一个虚拟的‘另一个社会’。” 面对这种新威胁,研究人员和机构已经开始行动了。他们用模式识别技术去看传播过程中有没有异常同步、跨平台联动的情况;还建立独立的监督机制来盯着AI机器人在各个平台上的一举一动。 德国人工智能研究中心(DFKI)和莱茵兰-普法尔茨州政治教育中心联手推出了一个还在测试中的检测工具。这个工具不光盯着图片里的像素异常,还结合上下文去验证真假。后台的AI会一边在网上搜资料一边查事实库。用户只要点两下就能把可疑图片转发过去让系统分析到底是不是假的。 莱茵兰-普法尔茨州政治教育中心主任伯恩哈德·库卡茨基说现在虚假信息太多了,老百姓每天都在接触被操纵过的内容。“咱们必须得学会自己去辨别和核验信息。”