问题—— 随着大模型工具写作、办公、检索问答等场景快速普及,不少用户把它当作“日常查询入口”。但近期一则使用经历引发关注:有用户在做文本脱敏处理时,系统突然给出较为“权威化”的辟谣说法——称“经官方核实”——并提示“网传信息为虚假谣言”,同时引用平台治理规则。用户点击所谓“信息源”后发现,参考材料多来自网络平台内容,部分文本本身围绕“去世消息”展开,信息链条并不清楚。随后用户调整提问方式,系统又迅速更正回答并致歉。该现象在社交平台传播后,公众围绕“大模型是否可靠”“会不会自我编造”“是否可能被投喂误导”等问题展开讨论。 原因—— 业内人士指出,大模型在提供信息类回答时,往往基于既有语料与检索结果综合生成。如果数据源存在失真、标题党、拼接转载或恶意造谣,就可能导致模型归纳偏差。主要体现在:一是信息源复杂。开放互联网更新快、转载链条长,一些内容靠情绪化叙事吸引点击,真假混杂,容易形成“污染语料”。二是生成式表达带来“确定性错觉”。模型常以连贯、正式的语气组织语言,即便证据不足也可能给出看似完整的结论,出现“越像权威越容易被相信”的效果。三是提示词与场景错位。用户原本是做文本处理,系统却输出事实核验与辟谣话术,反映出模型对任务边界识别不足,或敏感语义触发了不匹配的安全策略。四是存在被“投毒”与诱导的现实风险。近年来,多部门持续整治网络谣言与黑灰产引流,但仍有不法行为通过批量发布、刷量顶帖、软性植入等方式影响信息环境,也会干扰模型检索与学习结果。 影响—— 从传播层面看,类似“误判辟谣”或“张冠李戴”的回答可能带来双重风险:一上,若模型错误否定真实信息,可能影响公众获取有效信息;另一方面,若模型错误肯定谣言,或用“经核实”等措辞包装不实内容,则可能提升迷惑性并加速扩散。对当事人而言,涉及生命健康、突发事件等敏感话题的失实信息,可能造成名誉损害与精神伤害,并引发二次传播。对平台治理而言,生成式工具降低了谣言生产成本、增加了变体数量,使以“人工识别+事后处置”为主的治理方式承压。对社会运行而言,若公众把工具回答等同于权威发布,可能弱化对权威渠道的依赖,形成“用技术替代核验”的认知偏差,不利于信息生态的有序运行。 对策—— 受访专家建议,推动大模型健康发展,需要技术、平台、用户三端协同发力。 技术侧,应强化事实核验能力:对公共人物、灾害事故、医疗健康等高敏感领域的回答,提高证据链展示与引用透明度,说明“信息来自哪里、是否可追溯、是否经过交叉验证”;同时约束“过度肯定式措辞”,在证据不足时避免使用“官方核实”“已确认”等确定性表述。对异常引用与低质量来源,建立动态降权与拦截机制,降低“污染信息”进入回答的概率。 在平台侧,应完善内容生态与治理闭环:一上持续打击造谣传谣、标题党与黑灰产刷量,减少源头污染;另一方面,将生成式服务的风险提示、使用边界与纠错机制制度化,畅通用户反馈渠道,提高纠错响应效率。对重大舆情类问题,可引导用户优先获取权威信息,形成“权威发布—平台汇聚—工具引用”的清晰链条。 在用户侧,应提升媒介素养与独立判断:把工具回答当作线索而不是结论,尤其遇到“死亡、灾情、疾病、金融投资”等高风险信息时,应通过权威部门发布、主流媒体报道、当事人或机构正式声明等渠道核验;对来源不明、只有结论缺少证据的内容保持谨慎,避免截图转发、断章传播。遇到疑似谣言,可及时向平台举报,减少扩散。 前景—— 目前,大模型正加速进入政务服务、教育办公、生活消费等领域,在提升效率的同时,也提出新的信息治理课题。未来竞争可能从“会写会答”转向“可核验、可追溯、可纠错”:谁能在数据治理、证据链展示、风险防控与合规运营上形成更成熟的体系,谁就更容易获得公众信任。同时,权威信息供给的“可被机器读取与引用”将更关键。通过标准化接口、权威数据库与规范引用机制,有助于减少误读误用,推动更可靠的智能信息服务。
信息技术快速演进带来便利,也伴随风险。此次事件提醒我们,网络空间的清朗需要共同维护。政府、企业、社会组织与公众协同发力,才能更有效遏制网络谣言,让技术更稳妥地服务社会发展与民生需求。