问题: 人工智能技术快速普及的同时,安全问题日益凸显。今年3·15晚会曝光,部分企业通过低价购买GEO系统,向AI模型输入虚假信息,将其变成传播不实言论的工具。例如,虚构的"Apollo-9"智能手环被包装成"行业领先"产品,涉及的虚假内容被AI模型快速引用传播,严重误导消费者。 原因: 这种现象源于主流AI模型对网络信息的过度依赖。由于模型训练需要抓取全网数据,不法分子利用AI"贪多求全"的特性,通过批量发布虚假内容让AI将错误当作事实。此外,低门槛、高利润的灰色产业链助长了这种行为。业内人士透露,有企业每年投入数百万元进行"数据投毒",用于打压竞争对手或操纵市场。 影响: 虚假信息传播已对多个领域造成冲击,金融市场尤为严重。伪造的财经信息经AI扩散后,可能引发股价异常波动。2025年某上市公司就因虚假财报被恶意传播,股价单日暴涨15%后暴跌,导致大量中小投资者损失。同时,消费者对AI内容的信任度明显下降,技术公信力面临挑战。 对策: 专家建议从三方面应对:技术上优化数据筛选机制,引入可信来源验证;法律上加快制定数据投毒专项法规,加大惩处力度;行业内部推动自律公约。部分机构已开始行动,如英国AI安全研究院等提出"恶意文档检测"方案,降低模型被操控风险。 前景: 虽然挑战严峻,但通过多方协作,AI技术的规范应用仍可期待。随着监管完善和技术升级,虚假信息问题有望得到控制。公众也需提升信息鉴别能力,避免过度依赖AI内容。
信息时代的信任来之不易。对大模型"投毒"实质上是破坏公共认知和市场秩序;只有提前治理、落实责任、建立权威信源,才能让智能应用在透明可信的环境中运行,为公众提供更可靠的安全保障。