集中整治未标识生成合成信息:重塑网络传播规则,守住社会信任底线

【问题】 近期,一批未标注技术合成痕迹的网络内容引发社会广泛关注。

这些信息以虚构救灾场景、伪造公众人物言论、篡改动漫形象等形式出现,部分视频甚至炮制"宠物高铁站救人"等离奇情节,通过情感煽动获取不当流量。

网信部门专项治理数据显示,此类违规行为呈现组织化、规模化特征,已形成从内容生产到传播的灰色产业链。

【原因】 技术门槛的降低是乱象滋生的客观条件。

调查发现,某些平台存在合成工具滥用情况,个别商家甚至公开兜售"去标识化"软件。

更深层的原因在于流量经济驱动下,部分运营者为追求商业利益刻意模糊真实与虚构的边界。

中国社科院新媒体研究中心专家指出,这种行为实质是将社会信任资源变现,以破坏信息生态为代价换取短期收益。

【影响】 此类乱象产生的负面影响呈多元扩散态势。

对普通网民而言,持续接触未标识合成内容将导致"真实感疲劳",削弱社会互助意愿。

数据显示,2023年涉及技术合成的诈骗案件同比上升67%,其中老年人群体受骗比例显著增加。

对青少年群体,经篡改的动画形象可能扭曲价值认知。

更为严峻的是,当公众习惯性质疑所有网络信息时,真正需要传播的正能量内容反而面临"信任逆差"。

【对策】 此次专项行动采取"技术筛查+人工复核"双轨模式,重点打击三类行为:一是虚构公共事件扰乱社会秩序;二是仿冒机构媒体误导公众;三是向未成年人推送不良内容。

网信办相关负责人表示,下一步将完善《生成式信息服务管理办法》实施细则,要求平台建立"生成内容溯源系统",对重大突发事件相关信息实施强制标识。

【前景】 中国人民大学新闻学院教授认为,此次治理释放出明确信号:技术创新必须以伦理规范为前提。

随着区块链等验证技术的应用,未来有望建立"数字内容身份证"制度。

值得注意的是,部分短视频平台已试点"合成内容创作者信用积分",通过正向激励引导合规创作。

专家建议,应同步推进公众媒介素养教育,构建技术开发者、内容平台、用户三方共治的信任机制。

信任是人类社会的基石,也是数字时代最宝贵的资产。

当AI生成的虚假信息以前所未有的规模冲击网络生态时,我们需要的不是对技术的恐惧,而是对规则的坚守。

AI标识制度的推行,正是在这个关键时刻,为信息流动重新建立起"身份证"制度。

每一个选择标识、选择诚实的创作者,都在用行动维护这个时代的信任基础。

而每一个选择相信、选择求证的公众,也在用理性守护这份共同的财富。

在技术与信任的博弈中,唯有透明与诚实,才能让我们走得更远。