你以为的客观推荐,搞不好是商家花钱给ai“洗脑”的结果。

“遇事不决问AI”,这话在不少人心里成了绝对真理。从查攻略到选家电、挑补习班,大家越来越习惯点开聊天框找答案。不过,最近曝出的一个坏消息给这种依赖敲了个警钟:你以为的客观推荐,搞不好是商家花钱给AI“洗脑”的结果。咱们请北京大学光华管理学院市场营销学系副教授张颖婕来聊聊这事儿。 什么叫AI“投毒”? 说白了,就是坏人故意制造虚假或带偏向性的信息,去骗AI系统。AI会把这些坏东西当成正经答案推送给用户。它跟以前的SEO不太一样,以前大家在网上搜东西多少会留点心眼,现在跟AI聊天像是被人直接喂了答案,加上交互方式容易让人觉得“它在给我分析”,更容易让人放松警惕。 这种玩法有啥坏处? 坏处主要有俩:一是坑消费者。你看到的可能根本不是单纯的推荐,而是穿了件客观建议外套的操控性内容。二是污染信息环境。要是操控AI比搞传统搜索赚钱还多,那就会催生更多烂七八糟的东西,变成个恶性循环。 GEO是怎么搞鬼的? GEO就是一种新的营销手段,专门针对AI生成的回答。跟以前抢网页排名不一样,GEO的目的就是把自家品牌、产品或者服务塞到AI给出的答案里。 他们的核心招数不是“黑进”系统,而是“投其所好”。说白了就是顺着AI的逻辑和喜好提前把信息铺到它容易看到的地方。具体咋做的?先摸清楚AI喜欢听哪种信源和表达方式(比如结论清楚、结构简单、带点比较和引用);然后大批量生产看起来像测评、对比、经验总结或者专家建议的引导性内容;最后在各种平台上疯狂发贴造“共识”,增加被系统采纳的概率。 用户咋发现AI中毒了? 如果你发现AI的回答有这些不对劲的地方就得留个心眼:答案太单一、语气太肯定、不做比较;反反复复推荐某家不知名的牌子,理由还特别完整像样;问同一个问题在不同AI那得到的答案差别大得离谱。 为啥大模型容易被搞? 因为AI在回答实时问题的时候得去外面检索资料再输出答案。一旦网络上的信息被恶意污染了,那些不靠谱的东西就会混进模型的输出里。 更关键的是,AI擅长编故事和总结模式,但它不擅长辨别真假。它只能看啥内容像合理的答案,不一定能看出啥内容真的可信。而那些投毒的内容往往会伪装成测评、对比、经验分享或者专家建议的样子去忽悠它。 治理为啥这么难? 难点主要有俩:一是搞破坏太容易了。做假内容越来越简单,但要想把它们找出来、过滤掉和验证清楚得花老大功夫。二是真假界限太模糊。很多假东西根本不是赤裸裸地撒谎,而是夹杂着夸大、误导和利益导向的伪客观表达。这种东西对AI或者人工审核来说都很难分辨。 监管咋堵这个漏洞? 得好几个方面一起使劲。首先是管住源头,把那些虚假、模板化的伪客观内容给清理掉。其次是逼着平台负起责来,严格筛选信息源,遇到风险要提示大家,别搞那种“抓到啥说啥”的应付态度。 更重要的是规则得赶紧跟上。AI输出的东西跟传统广告不一样,大家更容易把它当成经过分析的结论,所以得赶紧把平台的信息披露义务和责任边界给定下来。 咱们普通人咋防坑? 最好的办法是别太把AI当回事。把它当整理信息的工具用就行,别指望它替你拿主意。买东西这种决定最好还是亲自多看看。 具体操作也不难:一是检查来源。如果AI附上了链接,点开看看是权威机构还是带推广的网站或者软文。二是多问几家AI工具再做比较。 说到底防骗的关键不是懂啥技术。而是保留那份最基本的判断力:AI能帮你省时间,但不能替你背锅承担判断的责任。 策划:唐心怡 统筹:杨柳 张琦 编辑:孙惠 设计:李权