网信办就拟人化互动服务管理办法征求意见:未成年人模式与监护人机制成重点

随着人工智能技术快速发展,拟人化互动服务在青少年群体中日益普及,相关监管规范亟待完善。

近日,国家互联网信息办公室发布《人工智能拟人化互动服务管理暂行办法(征求意见稿)》,向社会公开征求意见,旨在规范行业发展,切实保护未成年人网络安全。

当前,人工智能拟人化互动服务呈现爆发式增长态势,但在快速发展过程中也暴露出诸多问题。

部分平台缺乏有效的年龄识别机制,未成年人容易接触到不适宜内容;一些服务提供者对未成年人使用时长缺乏合理限制,可能影响其正常学习生活;此外,情感陪伴类服务的兴起,也对未成年人心理健康发展带来新的挑战。

针对上述问题,征求意见稿提出了系统性解决方案。

在技术层面,要求服务提供者具备识别未成年人身份的能力,对疑似未成年人用户主动切换至未成年人模式,并建立相应申诉渠道。

在功能设计方面,明确要求建立未成年人专用模式,提供模式切换、现实提醒、时长限制等个性化安全设置。

监护人权益保障成为此次规范的重要亮点。

征求意见稿规定,服务提供者向未成年人提供情感陪伴服务时,必须获得监护人明确同意。

同时,要求建立监护人控制功能,使其能够实时接收安全风险提醒,查阅未成年人使用概况,并可设置屏蔽特定角色、限制使用时长、防止充值消费等保护措施。

业内专家认为,此次征求意见稿的发布,体现了监管部门对新兴技术应用中未成年人保护问题的高度重视。

通过建立完善的技术识别机制和监护人参与机制,有助于在促进技术创新的同时,确保未成年人网络安全。

从国际经验看,欧美等发达国家和地区也在加强对人工智能服务的监管,特别是涉及未成年人保护的相关规定。

我国此次出台相关管理办法,既符合国际趋势,也体现了对未成年人权益保护的制度创新。

该征求意见稿的实施,将对人工智能拟人化互动服务行业产生深远影响。

一方面,将推动行业建立更加完善的技术标准和服务规范,提升整体发展质量;另一方面,也将促使相关企业加大在未成年人保护技术方面的投入,推动行业健康可持续发展。

在数字经济与人工智能深度融合的背景下,此次立法征求意见不仅是对特定技术应用的规范,更是对"科技向善"原则的制度化探索。

如何在技术创新与权益保护之间寻求动态平衡,将成为检验社会治理现代化水平的重要标尺。