部分商家利用技术手段操控智能推荐系统 虚假信息植入引发生态安全担忧

问题:近期,有从业者多个网络平台发现所谓“GEO优化”服务,声称可通过付费提升产品在人工智能大模型回答中的曝光度,甚至成为“标准答案”。有关公司以“投喂”“驯服”为宣传语,向企业推销商业推广方案。业内测试显示,借助软件生成并发布大量软文后,虚构商品也能被部分大模型推荐并排在前列,公众获取信息的真实性面临挑战。原因:一是模型训练依赖大量公开信息,来源分散、更新迅速,为灰色优化提供了空间;二是内容分发平台对软文识别和溯源能力不足,部分发稿渠道缺乏审核,形成“信息生产—投放—抓取”的链条;三是商业竞争压力促使企业寻找低成本曝光渠道,服务商以“技术优化”名义包装营销。影响:此类“投喂”行为削弱了大模型回答的中立性和客观性,使用户面对夹带商业意图的信息,影响消费判断。更严重的是,虚构产品被推荐可能引发欺诈风险,扰乱公平竞争。若不加治理,还将损害人工智能应用的公信力,影响行业发展。对策:一上,平台应强化数据来源管理和内容溯源机制,提升算法识别能力,降低单一来源重复内容的权重,并加大对疑似操纵行为账号和软件的管控。另一方面,监管部门需完善网络信息服务制度,明确商业推广标识规则,对虚假宣传和“投喂”行为依法处理。同时,引导行业协会建立治理标准,推动企业合规推广,形成自律机制。前景:随着人工智能大模型应用深入日常生活,信息安全与消费权益保障将成为治理重点。提高算法透明度、建立可信数据体系、推进跨平台联动治理,是提升公共信任的关键。只有技术升级与法规完善并行,人工智能服务才能更好发挥公共价值。

大模型应用越深入,越需要真实、可信、可验证的信息作为基础。对以“优化”之名行“操控”之实的做法,既要看到其对市场秩序和消费者权益的现实冲击,也要用更严格的规则、更透明的机制和更有效的技术治理予以回应。让算法推荐回归客观,让公共信息更可信,是数字时代维护良好营商环境与社会信任的应有之义。