问题——未成年人触网低龄化与平台治理压力上升。近年来,社交媒体和短视频应用青少年群体中的渗透率持续走高,低龄用户隐性注册、监护缺位、算法推荐强化沉迷等现象引发社会担忧。按照多数平台规则,13岁以下用户原则上不得注册或使用有关服务,但现实中通过虚报年龄绕过门槛的情况并不少见。随着未成年人网络保护成为公共议题,平台如何在不侵害隐私的前提下“核验年龄、落实分级、提供保护”,成为监管与产业共同面对的治理难题。 原因——法规约束叠加社会关切倒逼技术与流程升级。TikTok上表示,新系统的推出与欧盟监管要求相关,开发过程中与爱尔兰数据保护机构开展协作。欧盟近年来围绕个人数据保护、儿童权益与平台责任完善规则框架,监管机构也对多家互联网平台的年龄验证机制进行审查。在社会层面,家长、教育界对“低龄儿童长时间使用手机”的焦虑升温,深入推动政策讨论。英国首相在议会谈及对儿童和青少年过度使用手机的担忧,并对是否采取更严格限制持开放态度,反映出公共健康、教育发展与数字治理之间的张力正在加大。 影响——平台合规成本上升,治理重心从“提示”转向“识别与阻断”。据介绍,该年龄验证机制通过综合评估用户个人资料信息、发布内容与行为模式,识别疑似低于年龄门槛的账户;被系统标记的账户不会直接处置,而是进入人工复核流程,确认后可能移除。在英国试点阶段,已有数千个相关账户被删除。此举一上有助于减少低龄用户“混入”成人化内容生态,降低接触不适宜信息、遭遇网络诱导与隐私泄露等风险;另一方面也将对平台审核队伍、合规体系和技术模型提出更高要求,特别是如何控制误判、保障申诉渠道、避免对正常用户造成不必要干扰,考验平台精细化治理能力。 对策——形成“技术核验+人工复核+监护支持+规则协同”的组合拳。从治理路径看,仅依靠用户自报年龄难以满足监管与社会期待,平台以多信号识别补足“入口管理”的短板,已成为重要方向。但年龄核验并非越严越好:过度收集身份信息可能带来新的数据安全风险,完全依赖单一技术也可能产生偏差。较为可行的做法是,平台最小必要原则下引入多维度验证手段,建立分级内容供给和时长管理工具,完善透明的复核标准与申诉机制,同时为家长监护、青少年模式提供更易用的产品支持。监管部门则可推动统一的合规评估与审计要求,明确平台责任边界,强化对未成年人敏感数据的保护,并与教育、卫生等部门协同开展数字素养与心理健康干预。 前景——欧洲或加快设定最低使用年龄,政策将更强调可执行性与可监管性。当前,欧盟议会正推动社交媒体平台设立最低使用年龄限制,丹麦等国也提出更严格的未成年人使用限制设想。英国国内亦出现借鉴澳大利亚“16岁以下限制使用社交媒体”的讨论,但英国首相同时提醒,简单禁令可能带来“转向更隐蔽网络空间、监管更难落地”的副作用。可以预期,欧洲未来的政策取向将在“保护力度”与“可执行成本”之间寻求平衡:一上提高平台的识别、处置与披露义务,另一方面更注重跨平台一致规则、可审计的技术路径以及对家庭和学校的支持体系。平台端的变化也将呈现趋势性特征,即从以内容治理为主逐步扩展到“用户身份与年龄适配治理”,以应对合规审查与公众期待的双重压力。
这场涉及技术、法律和教育领域的综合治理,标志着未成年人网络保护进入新阶段。如何在创新与安全、监管与责任之间找到平衡点,不仅是欧洲面临的挑战,也将为全球数字治理提供重要参考。正如欧盟委员会主席冯德莱恩所说:"保护数字时代儿童的安全成长,是我们对未来最重要的投资。"