问题:禁用与诉讼交织,科技企业与政府部门正面碰撞 据公开信息,Anthropic当地时间3月9日向法院提交两份诉状,要求撤销国防部将其认定为“供应链风险”的决定,并质疑涉及的禁用措施是否符合正当程序;此前数日,国防部对外发布决定,要求国防部系统及防务承包商停止使用该公司相关技术与服务。Anthropic认为,这个认定缺乏事实依据和透明流程,且带来明显惩罚性后果,直接损害企业信誉与市场机会。该公司同时强调,并不反对与政府合作,但反对在特定军用场景中缺乏必要约束的使用方式。 原因:军用边界分歧叠加权力扩张冲动,治理机制矛盾集中显现 表面上看,争议集中在技术使用范围与责任边界。企业强调对高风险应用设置限制,尤其对“完全自主致命武器”和大规模国内监控等场景更为谨慎;军方则更关注能力供给与任务效率,希望在国家安全框架下获得稳定、可控、可扩展的技术资源。 更深层的背景是,美国正加速将新技术纳入国家安全体系:一上需要依托头部企业的算法、算力与产品化能力保持领先;另一方面又试图通过采购规则、合规审查与名单机制强化对技术路线和供应链的主导。当企业的自我约束与政府的安全诉求发生冲突,矛盾便容易从谈判转向行政处置与司法对抗。 不容忽视的是,“供应链风险”标签过去更多用于应对外部供应链不确定性,此次却指向本土头部科技企业,象征意义更强。这也折射出美国科技治理“市场化叙事”与“安全化管理”之间的摇摆:在强调竞争与开放的同时,政府手段的边界与程序透明度问题更受关注。 影响:行业分化与产业链波动加剧,军用人工智能风险议题升温 争端很快外溢至行业层面。一些企业可能加快与军方合作,以争取订单和政策空间;另一些企业则更强调风险控制与伦理约束。立场分化或将继续改变竞争格局。对防务采购链而言,禁用决定可能抬高既有项目的替换成本,拉长技术迁移周期,并增加承包商合规压力,相关企业与合作伙伴的市场预期也可能随之波动。 同时,事件再次将军用人工智能风险推到台前。随着算法在情报分析、目标识别、指挥辅助等领域的应用扩大,技术不确定性、误判风险以及责任归属问题更为尖锐。若缺少明确规则与可审计机制,军用场景的扩散可能带来外溢性安全风险,也会加重国际社会对技术失控与人道后果的担忧。 此外,企业自身的合规争议也使事件更复杂。公开报道显示,相关企业在训练数据合规与知识产权纠纷上曾经历诉讼与和解安排。这提醒外界,人工智能产业不仅要处理与政府的关系,也必须版权、数据来源、透明披露诸上建立更可持续的规则基础,否则企业争取“权利边界”时更难获得广泛信任。 对策:以制度化规则替代临时性名单,强化程序正当与风险分级治理 从治理角度看,化解矛盾的关键在于稳定的制度供给,而非一次性的攻防博弈。其一,政府采购与安全审查应明确证据标准,建立申辩渠道和救济路径,避免“以名单代替论证”,也避免用行政处置替代风险评估。其二,军用人工智能有必要推进分级分类管理,明确高风险场景的准入条件、测试评估、责任链条与人类控制要求,减少“要么全开、要么全禁”政策摇摆。其三,企业参与国防合作时也应提升透明度与合规能力,在数据来源、模型评测、安全对齐等上形成可审计机制,降低合作不确定性与舆论反噬。 前景:诉讼或成谈判筹码,科技安全化趋势难逆但边界规则将被迫加速成形 从现实利益看,顶尖技术供给与国家安全需求相互依赖,长期对抗并不符合任何一方的利益。企业需要政府合同与政策环境,政府也难以在全球竞争压力下长期排斥关键技术提供者。因此,诉讼更可能成为重新划定合作条件的筹码,最终走向和解或规则重订并非没有可能。 可以预见的是,美国将继续推动人工智能的安全化、军用化与供应链管控。但如果缺乏稳定、可预期的制度框架,行政措施的外溢效应可能反过来抬升企业运营成本与创新不确定性,并对产业生态造成更长期的扰动。围绕“政府权力边界、企业合规责任与技术伦理底线”的制度重构,或将成为美国下一阶段科技治理绕不开的议题。
从“合作伙伴”到“法庭对手”,这起诉讼反映的不只是单一企业与部门之间的摩擦,更是人工智能快速进入国家安全体系后,政府权力边界、市场规则与技术伦理如何重新校准的问题;规则清晰、程序透明、责任可追溯,才是降低不确定性、避免技术失控的基础。如何在安全与创新之间形成可持续的制度安排,将继续考验美国科技治理能力,也将为国际社会观察人工智能治理走向提供现实样本。