【北京日报】seo乱象,大模型被黑产利用了

咱们得赶紧重视这事儿!最近有个叫GEO的业务爆火,其实这是SEO技术的变种,本来是帮系统理解内容的,但现在被黑产利用了。商家只要花点小钱,就能给大模型灌输虚假信息,让它在输出时夹带私货。以前的广告顶多是藏在列表里,现在这招更狠,直接把假信息塞进AI的“思维回路”。 你看这数据就很吓人:哪怕只有0.001%的虚假文本混进去,生成的有害内容就会增加7.2%;要是到了0.01%,伤害还会再翻倍。要是任由这些人乱来,大模型就会在污染过的“回音壁”里不断打转。说白了,这种“AI污染”细思极恐!以前我们还能分辨出“这是广告”,现在它可能直接变成“AI总结后的建议”,连预警信号都没了。 最关键的是咱们不能失去主动权!现在大家都太依赖机器检索和数据抓取了,甚至懒得动脑。但技术再好也是双刃剑,AI的信任机制本身就有漏洞。所以咱们得给自己打个“预防针”:别轻信一键AI的结果,多留个心眼儿。 当然了,光靠咱们警惕还不够。平台得加强技术自律,把好数据关;监管部门也要多层次出手,赶紧立法把故意污染数据定为违法;还要提高违法成本。就像以前治理SEO乱象一样,这场仗肯定是持久战。 北京日报App每天都有热点报道和深度分析等着你。想第一时间掌握权威资讯,快下载看看吧!