美国社媒虚假内容泛滥调查:超九成用户接触AI生成影音 仅四成自信能辨真伪

问题——合成影音“入场率”高,公众辨识压力陡增。调查显示,社交媒体上合成图片和视频的可见度明显提高,已成为普通用户日常信息流的一部分。,受访者中仅有不到一半表示有把握区分真实拍摄与合成作品,反映出移动端碎片化阅读、短视频强刺激传播的环境下,公众对内容真实性的判断正遭遇更高门槛。更值得关注的是,当“看一眼就能识别”的直觉逐渐失灵,错误信息的传播成本下降,信息污染的风险随之上升。 原因——技术迭代加速叠加传播机制放大,传统识别经验失效。一上,合成技术能力快速提升,画面细节、光影一致性、人物口型与音频同步等关键环节不断逼近真实影像,过去依靠观察手部细节、边缘瑕疵等方法的“民间技巧”正失去有效性。另一上,社交平台以推荐算法为核心的分发机制强调停留时长与互动效率,情绪性、冲突性、猎奇性内容更容易获得传播优势,使合成影音短时间内形成更大触达面。此外,信息传播链条中“转载—二次剪辑—再包装”现象普遍,一段来源不明的视频被多次加工后更难追溯原始出处,继续削弱了公众验证的可行性。 影响——社会信任成本抬升,代际差异加剧误信风险。调查显示,多数受访者会采取某种方式核验视频真伪,但仍有部分群体并不主动验证,其中部分年龄段人群验证比例更低。这提示,在信息辨识能力、媒介使用习惯与核验工具掌握程度存在差异的情况下,虚假内容更容易在特定群体中“穿透式传播”。从更广层面看,合成影音若被用于散布谣言、制造对立、误导公共议题讨论,可能挤压理性表达空间,削弱公共决策所依赖的事实基础;若被用于冒用他人形象与声音,还可能衍生隐私侵害、名誉损害与诈骗风险。对新闻传播生态来说,真实内容也可能因“真实性被普遍怀疑”而遭遇连带质疑,形成“信任逆风”。 对策——以规则为牵引、以技术为支撑、以教育为补位,构建闭环治理。调查中,过半受访者支持对合成内容进行更明确标注,亦有人主张采取更严格限制措施。这个舆情取向反映出公众对“可识别、可追责、可纠偏”的治理需求。面向现实挑战,可从三上发力:其一,平台应完善合成内容标注与提示机制,形成清晰、统一、易识别的呈现方式,减少用户在快速滑动场景中的误判概率;对高风险领域内容(涉公共安全、重大灾害、选举政治、金融投资、医疗健康等)设置更严格的发布门槛与核验流程。其二,强化溯源与处置能力,推动数字水印、内容指纹、来源链路记录等技术应用,同时建立更高效的举报、核查、纠错与信息回溯机制,提高造假成本与传播阻断效率。其三,补齐公众媒介素养短板,面向不同年龄群体提供更具操作性的核验指引,如反向搜图、查证权威来源、对比多家媒体报道、核对时间地点与当事人信息等,尤其应加强对易受误信影响人群的针对性科普。 前景——治理窗口期正在收窄,平台责任与制度协同将成关键变量。随着合成技术继续演进,内容“以假乱真”将更常态化,单纯依赖个人经验识别难以应对规模化传播。未来一段时期,平台的规则透明度、处置及时性与对外协作能力,可能成为影响虚假合成内容扩散曲线的决定因素。同时,对应的制度建设与行业自律共同推进,将有助于形成可执行、可评估的标准体系,在保障创新应用空间与维护公共利益之间取得平衡。可以预期的是,围绕“标注是否强制、范围如何界定、违规如何惩戒、权利如何救济”等议题的讨论将持续升温,社会各方对信息真实性的共同维护将更显迫切。

AI生成技术的发展是一把双刃剑;一方面,它为创意产业和信息传播带来了新的可能性;另一方面,它也为虚假信息的制造和传播提供了便利。当识别技术逐渐失效、公众辨识能力相对薄弱的现实摆在眼前时,平台治理、政策规范和公众教育的重要性就显得尤为突出。只有通过多方协力,建立起从技术防护到内容标注、从平台治理到公众教育的全链条应对体系,才能在AI时代有效维护信息生态的健康和社会的信任基础。