我是北京师范大学法学院博士生导师、中国互联网协会研究中心副主任吴沈括。最近英国媒体报道说,美国的初创AI企业Anthropic公司准备把五角大楼给告了。原因就是2月27日美国总统特朗普下令,让美国政府全面停用这个公司的产品。路透社的报道截图显示,五角大楼还把Anthropic列为了“供应链风险”。Anthropic表示,Claude这款大型语言模型不能用于大规模监控美国公民,也不能用于自主致命武器系统。可是,五角大楼给这家公司发了最后通牒:要么完全解除限制,要么就取消合同、列入黑名单。Anthropic不肯妥协,结果就被正式列为了国家安全风险实体,联邦机构全都不能用他们的产品了。吴沈括说,这个案子说到底就是权力和伦理的较量。企业主张AI应用要有安全护栏,比如不能用于自主致命武器来避免伦理风险。但政府那边要求企业接受所有所谓的“合法用途”,包括军事用途。两者就因为企业的安全底线和政府的军事需求产生了冲突。美国政府认为企业不配合军方需求就会有供应链可靠性风险。但事实上是美国军方通过否定企业安全底线来坚持国家权力排他性主张。吴沈括还提到,美国政府把国家安全给泛化了。这次争议核心在于Claude怎么被应用到军事领域上。Anthropic政策规定不能用于大规模监控或自主打击目标系统。吴沈括觉得这次起诉是企业坚守伦理底线的表现,但长远来看商业前景挺严峻的。政府这次用了《美国国防生产法》条款作为依据来封杀公司。这主要针对外国对手的而不是本国公司。企业主张政府应当保障宪法框架下自由和正当程序规定。吴沈括说这次案件对新背景下人工智能各个领域应用带来巨大冲击特别是军事领域应用方面。这个案子揭开了“技术中立”遮羞布显示了技术工具化安排还有AI军事化失控风险并可能导致全球AI军备竞赛加剧还有政企关系新挑战和如何维持良性政企关系的难题需要有效国际治理国际规则法律制度建立起来去应对这些问题才行。