美国防部与科技企业因智能技术应用矛盾升级 合作前景蒙阴影

近日,美国政府与本土AI企业Anthropic公司之间的矛盾激化,双方围绕人工智能在军事领域的应用展开了激烈交锋。

这场冲突不仅涉及具体的政策分歧,更深层反映了当今美国在技术治理、国家安全与企业责任之间的紧张关系。

事件的直接触发点源于本月中旬的一次高层会谈。

在与国防部长皮特·赫格塞思的首次面对面会议中,Anthropic公司首席执行官达里奥·阿莫代伊就AI控制自主武器系统所带来的风险进行了阐述。

然而,这一表达方式遭到了赫格塞思的强烈反弹。

据知情人士透露,赫格塞思打断了阿莫代伊的发言,直言任何企业高管都无权对美国军事人员的行动进行评议。

这一插曲充分表明双方在态度上已存在明显对立。

从表面上看,这是一场关于AI军事应用政策的争议。

但深入分析可以发现,其根本原因在于双方对技术责任的理解存在根本性差异。

Anthropic公司长期以来主张为AI技术设置严格的安全防护措施,确保技术应用符合伦理规范。

这一立场虽然得到了学术界和社会组织的广泛认可,但却与美国政府追求快速部署、扩大军事优势的目标产生了直接冲突。

特朗普政府的态度更为强硬。

本月27日,美国总统特朗普发布指示,要求所有联邦机构停止与Anthropic公司的合作关系。

随后,赫格塞思以该公司未能按期签署技术使用协议为由,正式将其列为供应链风险企业。

这一系列举措表明,政府已经将Anthropic公司视为对其战略意图的直接威胁。

值得注意的是,这场冲突存在明显的矛盾之处。

据报道,就在特朗普发布停止合作指令的前几分钟,他曾授权对伊朗进行军事打击行动,而这些行动的策划过程中实际上已经使用了Anthropic公司开发的AI模型。

这一细节充分揭示了政府与企业之间的深层次信任危机——政府一方面广泛使用企业的技术产品,另一方面又对企业试图对技术使用方式进行监管的努力感到不满。

从政府官员的表态可以看出,他们对Anthropic公司的立场感到极为沮丧。

美国国防部负责研究与工程的副部长埃米尔·迈克尔公开指责阿莫代伊妄图扮演"上帝"的角色。

政府官员认为,其他科技企业的领导人通常会与政府寻求折中方案,而不是试图对技术使用方式进行单方面控制。

这种比较性评价实际上反映了政府对于企业不够"配合"的不满。

这场冲突的深层意义在于提出了一个当代社会面临的重大课题:在涉及国防安全的尖端技术领域,究竟应该由谁来最终决定技术的部署方式?

这个问题涉及政府权力、企业责任、技术伦理和国家安全等多个维度,没有简单的答案。

从国家安全角度看,政府有权要求掌握关键技术的使用方式。

从企业伦理角度看,科技公司也有责任确保其技术不被用于违反国际法或伦理规范的目的。

这两种诉求的碰撞,正是当今全球大国竞争中的一个重要课题。

美国政府将AI视为经济增长和国家安全的关键,这一判断并非没有道理。

但同时,完全放弃对技术应用的伦理约束,可能带来更大的长期风险。

专业人士指出,这场矛盾的本质是政府与企业之间的信任破裂。

Anthropic公司怀疑政府是否具备足够的能力和意愿负责任地使用其技术,而政府则认为企业不愿意为国家的重大战略需求服务。

这种相互猜疑的局面一旦形成,就很难通过简单的协商得到解决。

前沿技术进入军事领域,既是能力竞赛,也是规则竞赛。

将分歧简化为立场对立或政治标签,难以化解真实风险;唯有以制度化、可验证的治理框架把权力、责任与边界说清楚,才能在追求安全与效率之间找到可持续的平衡点。

这场争执的回响,将持续拷问各方:技术越强大,越需要更清晰的“谁来负责”。