因为生成式AI正变得无处不在,像获取信息、答疑解惑、辅助决策这些事儿,它都能帮上大忙。不过技术铺开了,麻烦事儿也就跟着来了。最近不少人说,在用AI助手查防晒怎么搭配营养的时候,回复里除了正经科普,还掺了不少品牌推荐。这事儿直接把AI里藏着的隐性广告推到了大家眼前。 有行内人分析,这多半是“生成式引擎优化”搞的鬼。有些商家利用技术手段批量造了一堆经过美化的内容,就是为了影响AI模型检索和学习的权重。因为现在不少AI用的数据来源太杂,审核还没跟上,这些带包装的营销信息就被模型吸收了。然后再把它包装成看起来很客观的“知识”丢给用户。 比起以前那种大家都能看见的互联网广告,这种藏在AI回答里的推销更隐蔽。不光破坏了公平竞争的环境,更麻烦的是它混在有公信力的解答里,对用户的认知影响很深。特别是在看病、存钱、学习这种大事上,要是听了那些有偏向的AI建议,很可能会让人做出错误判断。时间长了,大家对新技术的信任就会被慢慢磨没。 要解决这个新问题,光靠老办法不行。咱们得把监管视野往前看,从结果治理扩展到数据喂给模型、训练算法、生成内容的全过程。得建立监测机制盯着那些一看就像大规模投放的疑似广告数据,先把风险拦在源头。还得把用AI做隐性宣传的行为纳入法律里管起来,定好规矩。 平台公司也得负起责来。平台是社会责任的承担者,得把模型训练的数据好好筛一遍。算法设计得透明点好查账。那些带商业味儿的内容最好标出来让用户自己选。平时还要主动公布治理措施接受大家监督。 最后老百姓的数字素养也得跟上。大家得明白AI是个辅助工具,别完全信它。遇到买东西或者看病的事儿不能只听一家之言,得多问问别的权威人士。 总的来说,生成式AI要健康发展离不开规矩和正向应用。治理好这些问题是对咱们治理能力的考验。只有法规完善、技术向善、平台负责还有用户擦亮眼睛大家一起上,才能让AI环境干净起来。这项技术要是真用好了就能给经济社会发展帮忙,要是乱来就成了祸害。这既是技术进步的需要,也是维护清朗网络空间、建设数字中国的题中应有之义。