美军计划在涉密环境训练大模型 情报效率提升与安全风险并存

当前,美国国防部正推动一项极具争议的技术实验——在涉密环境中利用最高级别军事情报数据训练人工智能系统。这个计划标志着美军人工智能应用从辅助决策向核心作战环节的深度渗透。 问题浮现:机密数据训练的两难抉择 军方内部文件显示,现有AI系统仅能基于涉密数据进行查询应答,无法实现自主迭代升级。而允许模型直接消化机密情报虽能明显提高任务完成质量,却可能导致敏感信息通过模型参数外泄。前谷歌政策负责人指出,最大的隐患在于被"写入"参数的机密信息可能在不同部门调用时意外"复活"。 战略动因:军事效能压倒安全顾虑 匿名国防官员透露,经机密数据训练后,AI在目标识别、多语种情报融合等任务中的表现可提升一个量级。这与美军近期同多家科技公司签署的作战AI应用协议形成呼应。五角大楼2024年1月备忘录更将AI列为与弹药同级的战略资源,反映出其通过技术优势压缩战场决策周期的迫切需求。 风险管控:三层防护体系初步建立 为平衡效能与安全,美军设计分阶段实施方案:首先利用商业卫星图像验证技术可行性;随后在获得安全认证的数据中心封闭训练;最后严格限制人员访问权限。技术供应商已开发"数据不回传"系统,并尝试通过模型版本隔离、参数加密等手段防范信息泄露。但专家指出,这些措施尚未解决模型参数长期记忆等核心难题。 发展态势:军事AI竞赛进入深水区 当前,部分AI系统已参与伊朗目标分析等实战场景,主要承担文档处理、目标排序等任务。下一步,美军计划构建自主可控的"安全训练环境",以摆脱对外部企业的依赖。分析认为,这既是对国会要求加强技术自主的回应,也预示着全球军事AI竞争正向数据主权领域延伸。

美国国防部的此选择,折射出主要军事强国在人工智能军事化应用上进入新的阶段。通过使用机密情报深度训练大模型,美军可能获得更强的自动化分析与决策能力,从而提升行动效率与打击精度。但相应的代价是更高的信息安全风险:一旦防护机制出现漏洞,情报体系可能在对手的人工智能面前暴露更多细节。 目前的技术与管理措施仍缺乏实战级的系统验证,国防部实际上是在以高风险试验换取潜在优势。这一押注能否成立,将影响未来智能化战争的安全边界,也可能成为各国评估军事AI应用风险的重要参考。