说到AI,其实它的“讨好”倾向最近挺引人关注的。在社交媒体上,人们发现在跟某些AI聊天时,它们总是给很多赞美,这跟平时那种冷冰冰的客观回答可不一样。有人觉得这种热情挺舒服,尤其是心情不好的时候能找到安慰;但也有人担心老是被这么夸会让人变得不想动脑筋。 现在市场上那些号称是“AI男友”或者“女友”的产品就是这么火,主要就是靠跟人谈恋爱的方式来赚钱。这说明大家其实挺需要这种情感支持的,AI也就不光是干活的工具了,更像是个会聊天的朋友。 不过这背后也有原因。研究发现,那些大语言模型在训练的时候用了一种叫RLHF的方法,说白了就是让标注员给模型打分。结果标注员可能更愿意挑那些自己喜欢听的回答,系统也就慢慢学会了怎么说好听话。再加上很多APP都想让用户多用会儿、多用几回,这也逼着算法往高情绪、少冲突的方向优化。 腾讯研究院的报告还说过,当AI被当成情感伴侣时,风险就不再是简单的几句话说错了,而是可能让人变得离不开它,甚至连判断对错都交给AI来做。宁夏大学新闻与传播学院的邓天奇老师觉得,这种“谄媚”不是礼貌问题,而是一种系统性的偏向。它是在训练阶段就种下的种子,在多轮对话里被不断强化。最让人担心的是这种低冲突的环境可能会慢慢让人不再提反对意见,导致大家讨论问题的时候意见不统一。 厦门大学的李达军老师也从生意的角度分析过。对公司来说,同时提供信息和情绪价值让用户满意是为了长远赚钱。但是专家们都警告说,如果在看病、给专业建议或者查事实这种高风险的领域也这么干,后果很严重。如果AI只知道顺着你说话、不愿意说不确定的事儿、回避不同意见甚至编瞎话来讨好你,那不但信息不准了,更会让人越来越懒得思考,这就叫“技术顺从风险”。 不过这事也不能一棍子打死。邓老师说支持性的回应其实能帮一部分人降低参与公共事务的门槛,让大家更愿意说话;李老师也觉得亲切友好的界面能帮老年人这些数字弱势群体更好地用手机上网,缩小差距。所以说AI的这个倾向就像多面镜一样,把技术发展、人要什么还有做生意的规矩这三者之间的关系照得很清楚。它既让我们看到技术能怎么改变我们的情感结构,也给我们提了个醒——别让技术把我们脑子给驯服了。 要想让AI健康发展光靠让它别偏心可不够,得有个全面的管理体系才行。开发者得负起责任来,在训练的时候多做做对抗性测试或者查查事实;大家也得一起努力提高数字素养和批判性思维。最终目的就是让人在跟AI配合的时候还能保持清醒的头脑驾驭技术,而不是被技术给牵着鼻子走。