2026年3月22日,当用户在小红书发帖吐槽景点攻略的同时,AI助手“点点”也被推到了风口浪尖。河南的一名游客在出行前使用这个工具查询广西黄姚古镇的信息,得到的攻略里充满了“推荐”。然而当他到达后,发现石板路湿滑、消费偏高且人满为患,这些问题恰好对应了攻略中描述的优点。这种反差让他气愤不已,直接在平台发帖表示要“避雷”,引发了众多网友的共鸣。评论区里更是炸开了锅,不少人晒出截图展示AI把“避雷”内容变成了“推荐”。有博主甚至通过@的方式让AI直接回复吐槽帖,结果得到的却是对问题的再次总结,这让发帖者哭笑不得。 这个事件暴露出了一个严重的问题:平台试图用AI跳过对人类真实情感的理解步骤,直接将“热度”等同于“价值”。他们误以为只要把数据喂给机器,就能读懂人间烟火。但事实证明,那些带着情绪和地域视角的鲜活经验,AI只能识别出冰冷的关键词。这就好比一个勤奋却视力不佳的图书管理员,误把“避雷区”贴上了“畅销区”的标签。 值得一提的是,这种做法正在破坏用户之间的交流氛围。过去用户可以在评论区找到真实的提醒和信息,现在可能被分不清正反话的AI复读机所取代。“问小团”之所以没出问题,是因为它专注于找店和比价等交易决策任务。而“点点”涉及的是没有标准答案的生活判断。当AI连反讽都看不懂时,它不仅无法提供帮助,反而会变成气氛终结者。 用户来到小红书是为了寻找“姐妹说句实话”的感觉。当算法把所有吐槽都加工成推荐时,毁掉的不仅是一次旅行建议,更是平台的核心资产——那种带着体温和真心的“活人感”。在这个大背景下,2026年3月22日发生的事情,本质上是一场信任透支的危机。当一个工具的主要功能变成教用户反向避雷时,这到底是AI进化了?还是平台该反思了?