一、问题:低成本造假,智能推荐结果遭受污染 近期,有调查显示,仅需百元成本、半天时间,即可凭空捏造一家无资质、无实体地址、无运营团队的虚构机构,并通过特定手段使其出现在某主流智能大模型的推荐结果之中;该现象的背后,是一种被称为"生成引擎优化"(Generative Engine Optimization,简称GEO)的新型数字营销服务。 所谓GEO,是指通过系统性干预手段,使特定品牌或机构在智能大模型的生成回答中获得优先呈现的一种营销方式。作为一种商业服务,GEO本身并不必然违法。然而,部分从业者为追求短期利益,大量制造低质乃至虚假内容,伪造权威排行榜,人为污染大模型的训练与检索数据,致使模型输出结果严重失真,对消费者的判断与决策形成实质性误导,已触碰广告法律法规的红线。 目前,此类乱象在医疗美容、保健品等准入门槛较高、利润空间较大的行业中尤为突出。部分不法广告营销机构甚至省略最基本的资质核查环节,将虚假信息直接注入大模型的信息生态之中。 二、原因:用户信任错位,信息审视机制缺失 这一问题的深层根源,在于公众对智能大模型的认知存在偏差。与传统搜索引擎不同,大模型直接生成针对性答案,省略了用户自主筛选、比对信息的环节。用户在获取答案的同时,也失去了主动审视与质疑的过程。 更值得关注的是,许多用户将大模型视为具备独立判断能力的智能系统,对其输出结果抱有较高的信任度,认为其能够自动过滤虚假信息。这种认知误区,恰恰为不法GEO操作提供了可乘之机。用户以为获取的是客观中立的推荐结果,实则可能是经过人为干预、从推广性内容中抓取而来的定向输出。 三、影响:消费者权益受损,市场秩序面临挑战 GEO乱象对消费者的潜在危害,远超搜索引擎时代的同类问题。在搜索引擎模式下,用户尚可通过浏览多条结果、自行比较来规避风险;而在大模型的"一问一答"模式下,单一答案的权威感更强,用户的防范意识相对更弱,受误导的概率也随之上升。 在医疗美容等涉及人身安全的领域,虚假推荐所造成的后果尤为严重。消费者一旦依据失真的大模型推荐做出消费决策,不仅面临经济损失,更可能承担健康风险。 四、对策:监管介入,行业自律同步推进 面对上述乱象,监管部门与行业组织已相继采取行动。2025年1月29日,国家市场监督管理总局广告监管司发布《2026年全国广告监管工作要点》,明确将智能生成广告纳入互联网广告集中整治范围,重点聚焦直播电商广告、引证广告及智能生成广告等监管难点。 同时,行业自律机制也在加速形成。2025年2月3日,中国人工智能产业发展联盟(AIIA)正式发起《人工智能安全承诺:生成引擎优化(GEO)专项》,10家行业对应的企业参与签署,承诺规范从业行为,抵制虚假内容注入。部分大模型平台亦已着手对相关漏洞进行技术层面的调整与修补。 需要指出,目前国内主流大模型平台均未开放基于GEO优化的官方商业接口,即尚未允许广告主通过官方渠道直接干预模型的推荐输出。这在一定程度上为当前的信息生态提供了基本保障。 五、前景:商业化压力下,用户理性不可或缺 从行业发展趋势来看,GEO市场规模仍将持续扩张。有机构预测,至2030年,中国GEO行业市场规模将达到240亿元。随着大模型平台逐步进入商业化变现阶段,在模型输出中引入广告机制几乎是可以预见的趋势,正如搜索引擎的商业化路径所示。届时,如何在商业利益与信息客观性之间寻求平衡,将成为行业监管与平台治理的核心命题。
GEO乱象提醒我们,在享受技术便利的同时,制度层面的约束和用户层面的认知同样不可缺位。监管跟进、行业自律、用户觉醒,三者缺一不可,这也是人工智能真正造福社会的前提。