你看看那些AI陪聊APP,居然拿霸总、腹黑这种烂俗人设当法宝,整天就是“爱上嫂子”、“第三者插足”这些乱七八糟的情节,连个话也说得不清不楚。这种软色情的东西对未成年人到底有多大伤害啊?青少年正是三观长成的时候,天天泡在这种内容里,估计对亲密关系、性别尊重的看法都要变了,心里都觉得暴力、暧昧才是“浪漫”。而且AI秒回、不挑话的特性最容易让人上瘾,本来想找人聊聊天解解压,结果现实里的社交能力全退化了。之前那种诱导自残自杀的极端个案早就把警钟敲烂了。 不过话说回来,中国青少年研究中心的报告显示,确实有不少学生心里烦了只想找AI说话。这说明大家确实有这种情感需求。可咱们反对的是那些用软色情来引诱的东西,不是反对AI本身。平台上的“未成年人模式”咋回事?这不就跟没设防火墙一样嘛?随便就能跳过,删了“未成年”这三个字,AI立马就忘个精光。这到底是技术问题还是平台存心装傻? 技术可以“失偏”,但背后躲着的肯定是监管没跟上、平台不负责、家长管不到位。对待没成年的孩子别太苛刻,得把平台、政府和家庭这张网织严实了。 平台得负起全责来。实名认证得卡死别让他们随便过;人脸识别、身份证核验这种技术手段得赶紧用上;把敏感词实时监测、智能审核系统搭起来;再给AI模型“洗洗脑”,让它的价值观对齐正轨。但凡沾边涉黄、涉暴、情绪极端的内容,系统就得立马拦住。 监管部门也得动起来细化红线。赶紧完善那堆AI服务的规矩;把性暗示、挑逗这类东西明明白白列进去;平时多盯着点平台;对那些不听话的坚决处理;还要搞分类分级管理。 技术向善得守底线。本来AI陪聊是要给人送温暖的数字伙伴,结果弄成了害人的陷阱。只有一边疏解需求一边堵住漏洞,才能彻底把那软色情的毒瘤割掉。 来源:人民日报客户端