问题——军事行动引入商业模型,决策链条透明度受关注 美国媒体援引知情人士消息称,美军包括中东地区有关指挥机构内的多个部门,正将商业科技公司提供的人工智能工具嵌入情报处理与作战筹划流程。在近期针对伊朗目标的空袭行动中,该工具被用于生成情报评估材料、辅助识别打击目标,并对可能的战斗情景进行推演,为指挥员提供参考。报道还称,该系统以定制化形式部署在隔离环境中,面向军方任务进行专门优化。 该动向引发舆论关注:当算法参与战争“看、算、推”环节,责任如何界定、误差如何校验、外部监督如何开展,均面临新的治理命题。 原因——国防需求叠加技术竞速,推动快速嵌入 从政策与投入看,美国国防部门近年加速采购商业算力与模型能力。外媒称,美国国防部此前与多家企业签署相关合同,意在将通用模型能力转化为情报处理、作战规划与网络行动等领域的效率优势。 从作战需求看,现代战场信息源多、更新快,传统流程依赖大量人员筛选与交叉核验,周期长、成本高。相关工具在文本汇总、线索关联和情景推演上具备速度优势,容易被纳入“提效增量”的工具箱。 从竞争心理看,全球主要国家都推进智能化作战研究,美方在保持技术代际优势的压力下,倾向于更快把新能力引入军事体系,以缩短“实验—部署”链条。 影响——效率提升与风险外溢并存,伦理与规则压力上升 一上,工具化应用可能提升信息处理效率,缩短研判周期,帮助指挥员更短时间内形成多方案对比,降低因信息过载导致的遗漏风险。 另一上,风险同样突出。其一,模型输出具有不确定性,若数据来源存在偏差、对抗欺骗或语义误读,可能导致目标识别失准,进而放大误判与误伤风险。其二,当模型深度嵌入指挥、情报与行动链条,决策责任可能出现“工具背书”效应:人机之间如何分配责任、如何记录与复盘关键依据,尚缺统一标准。其三,商业企业与军方在用途边界上的分歧更为公开。涉事企业负责人日前曾公开表示,不愿开放“完全自主武器”以及面向公民的大规模监控等用途权限;而外媒称,美方国防部门则强调任务需要与供应稳定性,并对供应链安全提出更高要求。 此外,围绕相关空袭行动的合法性与正当性争议也被更放大。有国际研究机构指出,若军事打击与外交谈判之间的边界被模糊,可能削弱对话互信,增加地区紧张与误判概率。 对策——建立可验证的“人类最终决策”与审计机制,推进国际规则对接 业内人士认为,面对人工智能工具军事化应用的现实,各方需在制度上补齐短板: 一是坚持人类最终决策原则,明确哪些环节可用于辅助、哪些环节必须由人类独立判断与授权,尤其是涉及目标选择与武力使用的关键节点。 二是强化可审计与可追溯机制,对模型输入数据来源、推理过程记录、输出置信度提示、人工复核流程等形成硬性规范,确保事后复盘与问责有据可依。 三是完善供应链与安全评估制度,对定制化部署、隔离环境、权限管理、数据泄露风险、对抗攻击防护开展常态化测试,避免“黑箱化”扩散。 四是推动国际层面的规则协调。在现有国际人道法框架下,围绕自主性武器、算法辅助打击、跨境数据与责任归属等议题,亟需更具操作性的共识与约束机制。 前景——技术将持续进入军事实践,治理能力决定风险上限 可以预见,随着算力与模型能力迭代,人工智能工具在军事体系中的渗透仍将加速,从情报处理走向训练模拟、后勤保障乃至联合作战指挥辅助。关键不在于“用或不用”,而在于能否把使用边界、验证标准和责任链条制度化、透明化。若缺乏有效约束,技术优势可能在短期内带来效率红利,却在长期推高冲突升级与外溢风险。
智能技术的发展应当服务于人类福祉与社会进步,而不应成为加剧冲突的工具。此次事件再次提示国际社会:在技术快速进入军事领域的当下,尽快建立清晰、可执行的国际规范与监管机制更显迫切。各国应以负责任的态度推动制定智能技术军事应用准则,防止技术优势被滥用为新的权力工具,让科技进步更好服务和平与发展的共同目标。唯有如此,才能降低技术变革带来的安全风险,避免世界走向更不稳定的方向。