各位注意了!生成式AI搜索给商业操纵留下了大把机会,专家们赶紧呼吁得给它建个透明点的监管机制。你看,现在大家去哪儿玩、买什么东西,动不动就把AI助手当成了智囊团。可就在大家伙儿享受新技术带来的便利时,一场关于真相跟利益的暗战早就开打了。 记者搞了个调查,发现好多广告公司干脆把老一套的搜索引擎优化搬到了AI圈里,弄出了所谓的“生成式引擎优化”。某位业内人士说,只要花钱请他们代运营或者学技术,就能把你家品牌直接插到主流AI平台的回答里。像典当、医美这些行业的生意信息,已经稳稳地混进了好几款AI工具的推荐列表里。 跟以前的搜索广告不同,现在大部分AI平台根本就不明显标着是广告。北京理工大学计算机学院的王明老师一针见血:用户要是分不清算法生成的真信息和商家推销的内容,那就是信息不对等。这不仅影响咱们买东西的判断,时间长了还会把公众对AI的信任都给掏空了。 更让人头疼的是,现在的招数越来越野。有机构搞一堆看着差不多的文章到处撒,利用大模型能抓数据的特点来增加曝光率。有家自媒体做了个试验,发了几篇标题内容都一样的文章,没过几个小时就被好几家AI平台当成了权威信源给引进去了。中国科学院自动化研究所模式识别实验室的张伟副主任说:“这其实就是在污染训练数据。” 一旦系统被大量低质量、重复的内容填满,不光查东西不准,还会把模型的认知给带跑偏,以后就算改了参数也可能一直错下去。甚至还有人直接伪造权威报告来骗AI。有个广告商为了推自家服务,居然编了份挂着知名机构名头的行业报告让AI引用。在医疗健康这些关键领域这种情况特别多,有些代理商还会给客户弄个假头衔写伪科普的东西来引流。 为啥这么难管?因为生成式AI生成答案全靠网上的海量数据混起来的。而现在网上到底是广告还是真消息本身就不太好区分。复旦大学数字治理研究中心的李莹主任也觉得头疼:“老的搜索是给你列一堆链接让你自己选。”但新AI直接给你一个打包的结论,“黑箱”性质让你根本找不着源头在哪。 法律这块也有个大空档。《互联网广告管理办法》虽然管得严,但主要是盯着那种直接跳出来的搜索结果和信息流推送的形式,对这种藏在AI里的软植入根本没写清楚该怎么罚。好几家平台的老总也说他们正在弄广告标识的系统,“可怎么在用户体验、赚钱还有透明度这三方面找到平衡?”这事儿还得摸着石头过河才行。 说到底,发展技术本来是为了老百姓好,“可这背后藏着的风险得让人警惕。”张伟强调,“算法成了守门人的时候。” (后面的部分重复太多内容,根据要求不做复述)