Meta旗下即时通讯平台推出监护人账户体系 多维度保障未成年用户网络交往安全

问题——未成年人社交风险加速外溢,治理需求更趋迫切;随着移动互联网普及,即时通信工具已成为未成年人日常交流的重要载体,但由此带来的陌生人骚扰、诱导性信息、群组不良内容扩散等问题也更为突出。尤其低龄用户增长的背景下,单纯依靠用户自律或事后举报,往往难以及时阻断风险链条,家庭端对“可控、可见、可追溯”的管理诉求持续上升。 原因——低龄使用场景扩张与平台责任强化共同推动。近年来,多国在未成年人个人信息保护、平台合规审核与年龄分级上要求趋严,平台一方面面临合规压力,另一方面也需要通过产品机制降低潜安全事件带来的声誉与监管风险。同时,未成年用户的社交需求客观存在:学习交流、同伴联系、兴趣社群等活动频繁发生。如何在“可用”与“可控”之间建立可执行的边界,成为平台更新功能的重要动因。 影响——从“事后处置”转向“事前防护”,提高家庭端掌控度。根据WhatsApp披露的功能设计,家长管理账号面向未满13岁或未达到当地最低使用年龄的用户,监护人须年满18岁方可为孩子设置。功能重点落在三上:其一,家长可限制哪些人能够联系孩子账号,从源头减少陌生人接触机会;其二,可管理孩子能加入哪些群组,降低群聊环境中不良信息传播和被动“卷入式社交”的风险;其三,可查看来自未知联系人的信息请求,使潜风险在进入对话前即被发现。,平台以PIN码对隐私与控制权限加锁,避免设置被随意更改,兼顾管理效率与账户安全。总体看,此机制将未成年人社交安全防线前移,有助于减少低龄用户在不具备足够辨识能力时遭遇的骚扰、诱导和信息污染。 对策——平台治理需与家庭沟通、教育引导形成合力。业内人士指出,技术工具能够提升防护“下限”,但难以替代规则意识与媒介素养的培养。对平台而言,下一步仍需在身份与年龄核验、默认隐私强度、陌生人消息过滤、举报与处置时效各上提升,形成“默认更安全、异常可拦截、处置可追踪”的闭环;对家长而言,除启用管理功能外,更要与孩子建立稳定沟通机制,明确网络交往边界与风险识别方法,避免管理手段走向简单化、对立化;对学校与社会机构而言,可将网络安全与隐私保护纳入常态化教育,通过案例化教学提升未成年人对诈骗、诱导、霸凌等风险的识别与应对能力。 前景——未成年人保护将推动社交产品走向分级化、精细化治理。可以预见,围绕低龄用户的产品设计将更强调分层权限、最小必要使用与透明化告知,社交平台的竞争也将更多体现在安全能力与治理水平上。与此同时,如何在保护未成年人权益的同时避免过度收集信息、过度监控社交内容,仍需要在制度规则、产品设计与家庭实践之间寻找平衡点。只有当“技术防护”与“教育引导”同步推进,未成年人网络空间的安全边界才会更稳固。

在数字化时代,保护未成年人网络安全已成为全球性课题。WhatsApp的实践表明,科技伦理需要技术创新与制度设计的结合。正如日内瓦数字权利论坛强调的,真正的儿童网络保护既需要"技术护栏",更离不开家庭、学校和社会的共同参与。这是数字文明时代留给我们的重要课题。