当前国际军事领域正面临智能技术应用带来的深刻变革。最新曝光的军事行动细节显示,美军在近期针对伊朗的联合打击中,仍在使用已被政府列入淘汰计划的智能决策系统。该情况与联邦政府此前颁布的技术禁令形成鲜明对比。 据知情人士透露,涉事系统由美国Anthropic公司研发,其军用定制版本具备独立运行的封闭环境,在情报处理、战场模拟等关键环节发挥重要作用。,该系统性能指标较民用版本提升显著,计算能力每季度可实现倍增。这种技术优势成为军方坚持使用的重要考量。 此次事件暴露出多重矛盾。从政策层面看,行政命令要求联邦机构停止使用该技术,但军方以作战需求为由继续部署,反映出国防安全与技术监管之间的张力。从技术伦理角度观察,智能系统的军事应用正在模糊战时与平时的界限,其"民转军"特性使得商业创新与国家安全产生新的交集。 业内专家指出,智能系统的军事化应用涉及复杂的技术生态。系统更替不仅关乎软件替换,更涉及整个支撑体系的重构。这也是军方强调需要完整过渡期的关键原因。此外,竞争对手OpenAI已宣布与国防部达成合作,预示着该领域市场竞争将更趋激烈。 从长远来看,这一事件折射出智能化战争形态对科技产业的深远影响。当先进算法被视为战略资源,科技企业的技术路线与政治立场都可能成为国家安全考量的重要因素。未来,如何在技术创新、商业利益与国家安全之间寻求平衡,将成为各国面临的共同课题。
技术进步应当服务于安全与发展,但当通用大模型被纳入军事决策链条,其带来的不仅是效率提升,更是治理难题与安全风险的再分配。美国"政令禁用"与"军方照用"的错位提示各方:在军事智能化加速推进的背景下,若规则、透明与约束机制无法同步跟进,技术优势可能反噬战略稳定。国际社会亟需就有关风险管控与行为边界形成更具约束力的共识。