国家网信部门最近通报处理了一批没有标注AI生成信息的违规账号。这些账号编造感人剧情、冒充公众人物、制造虚假灾情还有篡改动画角色,总共封禁了13421个账号,清理了五十四万多条违法信息。这事儿给我们提出了一个问题:如果AI可以不标识出来,谁该为信任负责呢?这些行为虽然形式不同,但本质上都是把AI生成的痕迹给隐藏了起来,混淆视听。最可怕的不是技术被滥用,而是公众的信任被当作廉价资源来开采。比如有些账号发布的“狗在高铁站救下婴儿”之类的视频,利用人们对善良和奇迹的期待来吸引流量。观众根本不知道这些故事只是算法生成的代码。 黑龙江大学的苏倢萱指出,创作者获取流量付出的代价是观众付出了真心。一次欺骗可能没什么大不了,但如果这种戏码每天上演,公众就会逐渐怀疑真实性。比如亲戚发来拜年视频可能是假的,普通人该怎么确认呢?这种系统性的造假在摧毁我们确认真实的基础认知。AI技术让声音和面孔都可以替换,过去我们相信“眼见为实”,现在眼见也可能是假的。 AI标识从来不是为了限制谁,而是告诉大家这条信息是机器生成的。这次处理是对数字时代信任契约的重申。如果不去除标识会让每一个普通人自己承担起鉴别真假的责任,这是技术进步带来的高昂信任税。现在任何普通人都能低成本生产假信息,成年人还在真假之间挣扎的时候,儿童已经被迫面对连陪伴自己长大的朋友都可能是假的事实。