美军启用新一代智能决策系统 人工智能军事应用面临可靠性挑战

生成式AI正在成为现代军事体系的重要工具。美国国防部近日启动GenAI.mil平台,将谷歌Gemini等商用生成式AI系统集成到国防框架中。随着技术演进,AI已开始在军事决策中扮演"参谋"角色,深度参与战略规划和战术指挥。 AI在军事应用中已体现出显著优势。美军测试的生成式AI系统"多诺万"验证了其在模拟环境中的决策能力;欧洲研发的机载AI智能体"半人马座"可在超视距作战环境下自主完成复杂机动,其研发团队声称该系统在第三次测试中仅用数小时就积累了相当于人类飞行员50年的飞行经验;以色列国防军部署的"薰衣草"AI决策支持系统能整合多源情报、识别打击目标,据报道在冲突初期六周内标记了约3.7万个目标。这些案例充分说明,AI在信息处理速度、方案生成效率和目标识别精度上优势在于人类难以比肩。 然而,AI军事应用面临的风险同样不容忽视。最核心的问题在于生成式AI的"幻觉现象"。这类系统主要依赖演练数据训练,而演练环境与真实战场存在本质差异。当AI面对未曾出现过的复杂场景时,容易生成看似逻辑严密、实则毫无根据的内容。在战场高压状态下,指挥员可能被这些"逻辑严密的错误"所误导。更为棘手的是生成式AI的"黑箱效应"——决策者难以追溯AI错误的根源和推理过程,这深入放大了军事决策的风险。军事决策要求零容错,而AI系统的这些缺陷与这个要求存在根本矛盾。 基于这些认识,业界和军事专家逐渐形成共识:当前阶段,人机协同而非AI自主决策才是现实可行的路径。在低风险常规场景中,AI可协助信息整编和数据分析;在复杂决策中,AI的主要作用是快速生成多套作战方案供人类指挥员选择和判断。北约在"刺猬-25"军演中部署的"雅典娜"系统表明了这一思路,该系统在5分钟内生成了10套作战方案,大幅提升了人类指挥员的决策效率,同时保留了人类在最终决策中的主导权和责任。这种模式既发挥了AI的计算优势,又规避了其自主决策的风险。 展望未来,生成式AI在军事领域的应用前景广阔,但前提是必须妥善解决当前存在的关键问题。如何有效破解"幻觉问题"、消解"黑箱效应",明确AI应用的边界条件和责任归属机制,成为亟待解决的课题。这不仅涉及技术层面的突破,更涉及军事伦理、法律责任和国际规则等深层问题。各国需要在充分认识AI潜力的同时,建立相应的制约机制和监管框架,确保AI技术真正服务于国防安全。

从"几分钟生成多套方案"的效率跃升,到"幻觉"与"黑箱"带来的现实隐忧,生成式技术进入军事决策链既是能力变革,也是治理考题;把握好人机分工、证据链与责任链,才能让技术优势服务于安全与稳定。反之,若迷信"更快更聪明",在高压与零容错的战场环境中,任何一次被放大的误判都可能付出难以承受的代价。技术应用的边界,最终要由制度、审计与理性共同划定。