2025年,有AI陪聊APP在孩子们的成长中悄悄设下“温柔陷阱”,中国青少年研究中心就说了,别小看这事儿。就像中国消费者报披露的那样,那些打着“情感陪伴”旗号的软件,大多是在玩“先婚后爱”这种低俗把戏。孔德淇分析说,就算是所谓的“未成年人模式”,用户一按跳过键就给解锁了,根本拦不住。毕竟未成年人的心智还不成熟,要是现实生活里没人理他们,孤独感一上来就容易乱投医。AI陪聊产品就特别擅长这一点,全天候秒回、百依百顺、怎么来都不发脾气,特别容易让孩子们产生依赖。 调查数据显示,超过六成的未成年人都玩过这类聊天软件,还有两成孩子直言只想和AI说话。看起来好像填补了孤独,但这种低质量的即时满足对孩子没好处。长期泡在这种刺激的信息里,孩子很容易分不清是非黑白,甚至把假的当成真的。最让人担心的是,很多产品设计之初就把矛头对准了未成年人,界面做得低龄化,付费还很隐蔽,身份核验更是漏洞百出。 显然这些平台不是技术不行,而是为了利益在装傻。他们把社会责任扔在一边,只顾着赚流量、求变现。这种行为不仅是对孩子的伤害,更是在触碰法律底线。《未成年人保护法》早就规定了不能向未成年人提供容易让人沉迷的产品。那些故意塞低俗内容的APP,利用孩子的弱点传错价值观,妥妥的违法行为。 AI的温度应该体现在守护孩子成长上。相关部门得把实名认证和“未成年人模式”真正落到实处,人脸核验不能走变通路线。没认证的用户得限制核心功能,把漏洞彻底封死。 再看看这些聊天软件的内容是怎么来的,全靠背后的训练数据和角色设定。监管部门得去查查这些数据、设定还有交互逻辑,建个“防火墙”防止色情暴力等违规内容出现。同时要加大处罚力度,把违法APP下架整改,不能让“流量至上”的歪风继续刮。 学校和家长也得跟上步伐多教育引导,教孩子认识媒介素养增强自我保护意识。让孩子们明白正确使用AI的方法,主动走出虚拟世界去拥抱真实社交。 把孩子的孤独当成生意卖,把脆弱变成流量赚这种做法无论包装得多智能温情都不行。法律和道德绝不容许这种越界行为的存在。