问题—— 随着生成合成技术快速普及,春节前后网络传播进入高频期,一些“以假乱真”的视频图片集中出现,给公众辨识带来挑战。
通报显示,部分账号在发布生成合成信息时不添加标识,借助“感人救援”“猎奇事故”等情节吸引关注;也有账号利用换脸、声音仿真冒用运动员、演员、主持人、企业家等公众人物名义发布不实内容,甚至未经授权售卖“祝福”“拜年”视频牟利;还有账号编造火灾等突发事件现场画面,混淆视听、炒作灾情。
这些行为共同指向一个突出问题:利用技术便利突破事实边界,以流量和利益为导向制造传播噪音,破坏网络生态。
原因—— 一是流量驱动下的“低成本造假”诱因突出。
生成合成内容制作门槛下降、传播速度快,部分账号将其当作“起号”“涨粉”的捷径,以虚构叙事替代真实信息,形成利益闭环。
二是标识意识与规则执行存在落差。
相关规定强调生成合成内容应明确标识,但个别创作者对合规要求认识不足,或有意规避审核与追责。
三是平台审核与治理面临新挑战。
生成合成内容迭代快、形态多,单纯依靠人工识别难以覆盖全量,若规则、技术和管理联动不到位,容易出现“发布—扩散—辟谣滞后”的链条性风险。
四是公众对新型内容形态的识别能力有待提升,部分受众在情绪触发、信息碎片化环境中更易被“剧情化”“情感化”叙事带动转发。
影响—— 其一,侵蚀社会信任基础。
虚构救援、灾害画面等内容若被大量传播,会削弱公众对权威信息、真实影像的信任,形成“真假难辨”的认知困境。
其二,扰乱公共秩序与应急管理。
编造火情、事故等信息容易引发恐慌情绪,干扰正常处置与舆情引导,甚至诱发线下跟风围观等安全隐患。
其三,侵害个人与机构合法权益。
冒用公众人物形象、声音发布不实言论或售卖祝福视频,可能构成名誉、肖像、声音等权益侵害,也破坏行业秩序。
其四,挤压优质内容生存空间。
以虚假噱头攫取关注,会导致“劣币驱逐良币”,冲击健康的内容生态与创作环境。
对策—— 从治理实践看,此次集中整治释放出明确信号:对未按要求标识生成合成信息、借虚假不实内容欺骗误导公众等行为,依法依约从严处置。
下一步应在“规则—技术—管理—共治”上形成闭环。
一要压实平台主体责任,完善“生成合成内容标识”全流程机制。
对疑似生成合成内容强化提示、标注、限流、复核等措施,建立更严格的内容上架标准与账号信用管理规则。
二要提升技术识别与溯源能力,强化对换脸、声音仿真、灾情画面伪造等高风险场景的模型检测与风控策略,推动证据留存和可追溯处置。
三要聚焦重点领域开展专项治理。
对涉灾害事故、涉公众人物、涉未成年人、涉金融消费等易引发社会影响的内容加大巡查力度,及时处置“蹭热点”“造灾情”“卖祝福”牟利链条。
四要加强普法宣传与公众教育,引导用户在转发前核验来源,遇到疑似生成合成信息及时举报,形成社会共治合力。
五要推动内容生产端守底线。
创作者应把“真实、准确、标识清晰”作为基本规范,商业合作中加强授权审核与合规把关,避免因违规带来法律风险与信用损失。
前景—— 生成合成技术本身具有正当应用空间,在影视制作、文旅传播、公益宣传等方面具备提升效率与表达力的潜力。
关键在于以明确规则划定边界,以技术治理提升识别能力,以法治手段强化震慑,以行业自律与公众参与培育良性生态。
随着相关制度完善、平台责任压实和社会认知提升,网络空间有望逐步形成“可标识、可追溯、可问责”的治理格局,让技术创新更好服务社会、服务民生。
AI技术本身是中立的工具,其应用效果取决于使用者的初心。
当前的集中整治行动表明,网络治理部门已经准备好应对新技术带来的新挑战。
但从根本上讲,建立健康的网络生态需要全社会的共同参与。
平台要担起责任,创作者要恪守底线,用户也要提升辨别能力。
只有形成这样的共识和合力,才能让AI等新技术真正造福社会,而不是沦为欺骗和伤害的工具。