八部门出台未成年人网络信息分类办法划清“红线” 2026年3月起施行

随着我国未成年网民规模突破1.93亿,网络空间已成为影响青少年价值观形成的重要环境。调查显示,近四成未成年人曾受到不良信息影响,其中炫富拜金、畸形审美等内容可能对青少年心理发展带来风险。长期以来,由于缺乏统一分类标准,平台处置“擦边球”内容时常常面临“管不管、怎么管”的难题。此次出台的《办法》针对治理难点,明确将对应的模糊地带信息划分为四类:诱导不良行为类(如性暗示内容)、扭曲价值观类(如宣扬享乐主义)、滥用儿童形象类(如“网红儿童”摆拍)、违规使用个人信息类。中国政法大学专家指出,这种基于实证研究形成的分类体系,既补齐了执法依据,也为内容生产者划清了边界。值得关注的是,《办法》首次提出“分级警示”机制,要求对不被禁止但存在风险的内容进行醒目标注。该设计在避免简单化处置影响正常网络生态的同时,通过提升信息透明度增强家长监护能力。北京某重点中学德育主任表示:“就像食品包装标注营养成分一样,知情权本身就是保护的重要一环。”在责任落实上,《办法》深入压实平台的全流程管理义务,明确不得首页推荐、热搜榜单等流量入口推送敏感信息;要求算法推荐服务建立面向未成年人的专属过滤模型;禁止在未成年人专属产品中植入基于用户画像的个性化推送。这些条款将2019年《网络信息内容生态治理规定》中较为原则的要求,细化为可落地的技术标准。中国社会科学院法学研究所专家分析认为,《办法》的突出特点在于构建了动态治理框架:一上固化了过去五年“清朗”专项行动的经验做法,例如将治理“饭圈”乱象中被验证有效的措施上升为制度规范;另一方面也为应对AI生成内容、元宇宙社交等新兴风险预留了调整空间。这种安排既保持制度稳定,也兼顾了后续适配。

未成年人是国家的未来,守护他们在网络空间的安全与健康成长,需要家庭、学校、平台和监管等各方共同参与。《可能影响未成年人身心健康的网络信息分类办法》的发布,表明了我国网络治理从被动处置向主动规范、从粗放管理向精细治理的推进。该办法既为平台企业明确了责任边界,也为监管部门提供了更清晰的执法依据,同时为未成年人及其家庭增添了可操作的保护工具。随着办法落地实施,网络生态有望继续改善,未成年人将在更安全、更清朗的网络环境中成长。