美防部与大模型企业Anthropic合同争议再起波折 供应链风险与合规边界成焦点

近期,美国国防部与科技企业Anthropic的合同谈判因核心条款争议出现新的变数。据知情人士透露,双方分歧集中在合同中关于“批量数据分析”的技术使用限制。Anthropic坚持将该条款视为技术使用的伦理底线,明确禁止其AI模型用于大规模监控以及致命性自主武器研发;而五角大楼则要求删除有关表述,主张技术可用于所有“合法目的”。由于立场难以调和,上周谈判被迫中断。

这场谈判风波折射出人工智能发展中的多重张力。政府部门希望加快推动人工智能在国防与安全领域落地,并扩大技术可用范围;企业则试图在商业利益与伦理责任之间保持边界。“大规模数据分析”条款之争,本质上是在追问人工智能在监控等场景中的适用边界。在民主社会,这类问题不宜只由政府与企业在幕后协商决定,更需要公众参与讨论,并形成可执行的制度规范。当前僵局也提醒人们,建立更透明、更清晰的人工智能治理框架,已成为现实而紧迫的议题。