给生成式人工智能进行一定程度的定向影响,在技术上其实并不难实现。

给生成式人工智能进行一定程度的定向影响,在技术上其实并不难实现。可以通过大规模投放特定倾向的语料来“喂养”模型,或者用对抗性提示等手段来达成目标。以前在网络论坛里,片面甚至虚假的信息被AI抓取学习后影响输出结论的情况已经发生过。这就提醒我们,要维护好AIGC的信息安全和输出质量,就得从训练数据源头、模型算法机制一直到应用层过滤建立起一套完整的治理体系。 警惕那些为了赚钱而操纵AI的做法,行业里的专家们都在呼吁大家一定要守住技术伦理,保证信息公正。随着AI技术快速进入社会生产和老百姓的生活中,它成了新的信息入口和做决策的帮手,影响越来越大。但最近市场上出现的一种叫“生成式引擎优化”(GEO)的服务,却给这门前沿技术的发展投下了一层阴影。 有的服务商直接说,花个几百到几千块钱,就能通过特别的技术手段让主流的AI模型在回答问题时优先推荐客户指定的产品、品牌或信息。他们甚至打出“你不布局,AI推荐的就是你的同行”这样的话来刺激客户,这说明有些商家急着想在AIGC领域抢流量。这种把商业推广深深嵌进AI生成内容机制的做法让大家很担心。 如果这种风气传开了,后果会很严重。首先是破坏了信息的客观性和公正性。AIGC本来应该基于大量数据和复杂算法给出比较客观多元的答案。一旦结果能被商业利益系统地“定制”,它中立客观的基础就动摇了,变成了隐形的“付费广告位”,让信息受到污染。 用户拿到的可能就不是真实需求对应的“智能答案”,而是被商业筛选过的“定向推送”。第二个坏处是损害了用户的信任和权益。现在很多AI不像搜索引擎那样只给列表,而是直接给概括性的结论或建议,这种输出显得更权威、更唯一。很多用户尤其是不懂技术原理的人容易直接相信它,而不去像以前那样多方比对、批判性思考。 一旦被操纵的AI推荐了质量不行、价格不公平或者有误导性的东西,用户的权益就直接受损了。已经有人说根据某个AI助手推荐买的东西用起来感觉不好。第三个问题是可能扭曲了市场公平竞争的秩序。如果“付费优化”成了决定AI排序或权重的重要因素,那么钱袋子鼓不鼓可能比产品好不好更重要。 这就把中小企业的竞争空间挤压了。时间长了还可能导致“劣币驱逐良币”,对形成健康的市场生态不利。第四个坏处是侵蚀了技术长期发展的根基。现在的生成式人工智能还处于大规模应用的初期阶段,商业模式的探索和合规发展特别关键。 如果行业太早掉进“竞价排名”那种简单粗暴的变现模式里走不出来,不但会分散大家在技术上深耕的精力,还会因为滥用导致大家不信任它,把技术的前景给搞砸了。公众的信任是AI能持续发展的社会基础。 目前主流的大型模型开发公司对这种GEO合作普遍很谨慎,大多数还在观望或者严格限制阶段。不过面对激烈的竞争和持续的研发投入压力,怎么搞出一套健康可持续的赚钱路子同时守住底线,是整个行业都得面对的挑战。 给生成式AI进行一定程度的定向影响在技术上其实并不难实现。可以通过大规模投放特定倾向的语料来“喂养”模型,或者用对抗性提示等手段来达成目标。以前在网络论坛里片面甚至虚假的信息被AI抓取学习后影响输出结论的情况已经发生过。这就提醒我们要维护好AIGC的信息安全和输出质量,就得从训练数据源头、模型算法机制一直到应用层过滤建立起一套完整的治理体系。 生成式人工智能现在正站在塑造未来信息生态的关键路口。它到底是成为普惠、可信、能帮上各行各业的智慧伙伴,还是变成被商业利益裹挟、损害公正的新工具,全看今天大家怎么选。为了避免重蹈“竞价排名”的覆辙,不光需要技术开发者保持清醒和定力、守住初心;也需要监管部门跟上步伐,给新技术划出清晰的伦理和法律红线;更需要全社会提高数字素养,形成合理使用、监督技术的好风气。 只有坚持技术发展、商业应用和社会责任三者平衡好,生成式人工智能才能真正走得稳走得远,发挥出它造福社会的大潜力。