中小学生AI使用调查揭示三大风险隐患 专家呼吁建立家庭学校社会协同防护体系

问题:应用下沉快,防护跟不上 智能应用的学习辅导、信息检索、对话陪伴等功能优化,使用门槛持续降低。专家预测,到2026年对应的用户规模将达6亿,未成年人已成为主要使用群体。 然而,与游戏、短视频等产品相比,许多生成式应用隐私保护、内容过滤、使用时长管理、付费与社交风险提示诸上仍不完善,客观上增加了未成年人接触不当内容、被误导和过度依赖的风险。 原因:技术吸引力强,家庭管理缺位 一项覆盖七省市8563名中小学生的调查显示,61.7%的学生使用过相关工具,多数评价积极。但问题也很明显:46.4%的学生遇到烦恼更愿意向工具倾诉,21.5%的学生出现"更想和工具聊天、不想和真人聊天"的倾向,19.7%的学生认为用其代写作业"不算作弊"。 生成式产品能够多轮对话、即时回应并提供"情绪陪伴",对青少年吸引力更强。而家庭作为最前端的监护主体,风险识别、规则设定与行为引导上明显不足。调查显示,仅约三成家庭为孩子制定了使用规则。部分家长仍将其视为普通学习软件或搜索工具,没有意识到其生成能力带来的"内容可塑、边界模糊"特点。 影响:学习方式变了,价值观也在变 生成式工具对未成年人是把双刃剑。一上,它能拓展知识获取途径,缓解资源差异导致的学习信息不对称,对欠发达地区学生尤其有意义。 另一方面,风险也很具体:首先,依赖心理和思维懒惰抬头,部分学生倾向直接采用生成答案,弱化了问题分解和独立思考;其次,社交退缩和关系替代,虚拟陪伴可能挤压现实交往时间,影响同伴互动和情绪调节能力;再次,自我认知易受外部评价牵引,近三成学生表示会因工具的评价改变对自己和未来的看法。 这些变化若缺乏及时纠正,可能对学习诚信、心理健康和人格发展产生长期影响。 对策:家校企监管齐发力 家长应尽快从"放任使用"转向"规则使用",围绕账号管理、隐私边界、内容清单、作业诚信、每日时长等建立家规,通过共同使用、复盘对话记录等方式提升陪伴质量。 学校应推进相关教育时强化信息素养与伦理教育,将"如何提问、如何核验、如何引用、如何标注"纳入课堂训练,明确作业评价中对原创性和思维过程的要求。 企业应加快完善未成年人模式,落实默认强保护:包括年龄识别、敏感内容拦截、关闭或限制情感陪伴与社交功能、降低个性化推荐与数据留存、提供可追溯的引用工具,并强化家长监护面板。 监管部门应在隐私保护、算法透明、数据最小化、内容治理等上细化标准,推动可审计、可问责的合规机制落地。 前景:技术成为助推器,不是捷径 受访专家认为,生成式工具进入教育是大势所趋,关键是将技术优势转化为促进学习的"助推器",而非替代思考的"捷径"。随着未成年人保护模式逐步完善、家校共育体系更趋成熟、监管规则更加清晰,相关应用有望作业辅导、个性化练习、阅读拓展和科学探究等上发挥更大作用。 同时,面向青少年的心理韧性培养、同伴交往训练和学习诚信建设,也需要在新技术环境下同步升级。

当智能技术成为新时代的"基础文具",如何引导青少年驾驭工具而非被工具定义,考验着全社会的智慧;这不仅是技术伦理问题,更是关乎下一代健康成长的教育课题。唯有在创新与规范之间找到平衡,才能让技术进步真正成为托举未来的力量。