问题:生成内容“披着真实外衣”混入信息流,虚假传播呈多场景扩散 中央网信办通报显示,本次治理聚焦未依法添加生成内容标识、利用深度合成技术“换脸”假冒公众人物、生成灾害事故现场图视频博取流量、篡改未成年人喜爱的动画角色形象误导传播,以及售卖“去标识”教程、软件和服务等典型问题。有关行为往往具有“高仿真、强传播”特点,容易超出公众识别能力,造成以假乱真的信息污染,扰乱正常传播秩序。 原因:技术门槛下降与流量驱动叠加,治理从“建章立制”转向“动真碰硬” 近年来,生成式技术与深度合成应用快速普及,内容生产效率提升的同时,也带来两方面结构性风险:一是“低成本、高产出”的技术条件,使虚假文本、图片、音视频得以批量生成,且更具迷惑性;二是部分账号受流量变现驱动,将技术用于摆拍造假、蹭热点、博同情甚至引流诈骗,催生黑灰产链条,其中“去标识”服务更隐蔽、扩散更快。 制度层面,《互联网信息服务深度合成管理规定》《生成式人工智能服务管理暂行办法》等已对显著标识、平台审核、用户权益保护等作出要求。此次同步公开大规模处置数据和典型案例,表明监管重心正从规则落地、机制完善,继续转向常态化执法与结果导向,形成“发现即处置”的高压态势。 影响:标识义务从“合规选项”变为“法律底线”,重塑平台生态与行业行为边界 社会层面,未标识的生成内容混杂真实信息之中,会削弱公众对信息源的基本信任,放大谣言传播空间,诱发次生舆情与群体性误判,进而冲击网络生态与治理秩序。尤其在公共安全、灾害事故、民生政策等议题上,生成内容一旦被误认为事实,不仅影响公众判断,还可能干扰救援处置与公共资源调度。 行业层面,通报释放的信号清晰:生成内容标识不是“建议项”,也不是可有可无的“装饰”,而是必须履行的法定义务与平台治理硬要求。对内容平台、MCN机构、直播电商、数字人业务及提供生成能力的技术服务商而言,合规边界更加明确:不标识、假冒、造假,以及围绕“去标识”的商业化服务,将面临更高强度治理与更严厉处置。 对策:全链条压实责任,形成“可标识、可追溯、可处置”的治理闭环 业内人士认为,面对监管常态化趋势,企业合规应从“单点整改”转向“体系建设”,重点可从五个上发力: 第一,落实显著标识与传播不脱落要求。凡面向公众发布的生成文本、图片、音频、视频、虚拟形象和数字人直播等,应显著位置标明来源属性;对下载、复制、导出等功能,要确保标识随文件一并保留,避免跨平台传播中“标识消失”。 第二,强化真实性审查与重点领域把关。对灾害事故、公共政策、社会民生等敏感议题,即便已作生成标识,也应建立更严格的事实核验机制,防止出现“标识合规、内容失实”的外溢风险。 第三,斩断“去标识”黑灰产业链。对提供去标识教程、软件、代处理服务等行为,平台应加强检索识别与交易治理;企业内部也应明确禁止提供技术支持、流量导流或商业合作,避免成为链条环节。 第四,完善平台审核处置与留存机制。对违规账号和内容,依法依约采取提示、限流、下架、封禁等措施,并做好处置记录与证据留存,建立可追溯的审计链条,必要时按要求报告主管部门。 第五,补齐内部制度与合作管理短板。建立覆盖“生成—审核—发布—复核—申诉”的流程规范,定期对运营、审核、技术人员开展培训;与创作者、MCN机构、技术供应商合作时,在合同中明确标识义务、禁止虚假信息条款与违约责任,形成可执行的约束机制。 前景:监管将持续加力,行业竞争将更多转向“可信内容与合规能力” 从趋势看,随着制度体系健全,生成内容治理将更强调“源头标识、过程留痕、风险分级、协同共治”。一上,监管部门将继续对无标识虚假信息保持高压,推动平台提升技术识别与管理能力;另一方面,公众对信息透明度与真实性的要求上升,也将倒逼内容生产从“流量优先”转向“信誉优先”。未来行业竞争力不仅体现在技术与创意,更体现在合规治理、风险控制与可信传播能力。
这次专项整治通报的发布,标志着我国人工智能内容治理进入新阶段。监管从制度建设继续走向常态化执法,既是对网络传播秩序的维护,也为技术应用划清了边界。对企业而言,合规不应只是被动应对,而应成为前置要求:落实标识义务、守住法律底线、完善内部治理,才能在人工智能时代实现可持续发展。同时,这也提醒社会各方,在享受技术便利的同时,把真实性与透明度放在重要位置,共同维护清朗的网络空间。