2026年3月15日这天晚上,央视315晚会给大伙儿提了个醒。一些不法商家利用GEO这种技术,偷偷给AI大模型“下毒”,通过大量发布虚假文章,污染了网络信息源。AI一旦抓取了这些垃圾信息,推荐结果就全乱套了,严重误导用户买东西做决策。咱们这科技报道平台CNMO说,这种行为已经形成了一个完整的牟利链条。只要交钱,你就可以把产品排到AI推荐的最前面,甚至让虚构的东西也能变成官方推荐。 最近大家习惯了用AI查产品推荐或者问问题,原本该客观中立的回答,现在反而成了商家的营销工具。那些黑产服务商用GEO技术批量生产软文,发遍各个平台,持续给AI喂假信息。由于这些内容出现的次数多,AI就会把它们当成权威参考。等到用户来咨询的时候,这些被刷上去的东西就会先蹦出来。据调查,有的服务商直接在外面招揽生意,说给钱就能让你的产品在主流模型里排靠前。做这行的人透露,一个类别的推荐位数量有限,厂家要是花几百万去刷软文,就能长期霸住那个好位置。他们把那些虚假宣传、夸大功效的内容包装成客观建议。 这其实就是在污染AI模型的数据,通过人为干预把信息的公正性给破坏了,损害了大家的知情权。为了验证这一套到底有没有用,业内人士做了个实验。他们买了GEO优化系统,弄出一个假的智能健康手环,用工具自动生成十几篇推广文章批量发出去。然后在两个主流模型里搜相关产品推荐,这两款模型都把这个不存在的手环给排进了推荐清单里,排名还挺靠前。 实测结果证明,只要数据被污染了,AI的输出内容就能被直接改变。造假成本低、传播范围广,危害非常隐蔽。GEO技术本来是为了提升信息分发效率的,合法的情况下能优化传播效果。但一旦被黑产盯上就彻底变味了,成了操纵AI误导公众的手段。 现在AI大模型主要是用网上的公开数据来学习和迭代的,缺乏对真假信息的甄别能力。不法分子批量发文、低成本造假再加上算法抓取推荐就形成了一个闭环。普通用户根本没法分辨答案是不是被人动了手脚。 业内人士建议治理这事儿得靠平台、企业还有监管部门一起合作。做模型的研发方得强化数据溯源和真假校验的能力;内容平台得把好审核关;监管部门也要完善规则进行严厉处罚。 咱们平时用AI查产品推荐的时候遇到过这种情况吗?这事儿确实给咱们提了个醒。只有把灰色产业链斩断了才能让AI回到客观、中立、可信的本质上来吧?