美国国防部近期向四家主要人工智能技术供应商施压,要求放宽其产品在军事场景中的使用限制。在这场围绕国家安全需求与技术伦理的博弈中,Anthropic态度最为明确强硬。该公司划定两条红线:禁止将Claude用于自主武器开发,以及用于大规模民众监控。
技术进步能够增强安全能力,但技术应用同样需要边界与规则;军方强调效率与可靠供给可以理解,企业坚持风险约束也有现实依据。能否在国家安全需求与公共价值之间形成可执行、可追责的制度安排,决定的不只是一次合作的成败,也关系到新技术时代军事应用的底线与秩序。
美国国防部近期向四家主要人工智能技术供应商施压,要求放宽其产品在军事场景中的使用限制。在这场围绕国家安全需求与技术伦理的博弈中,Anthropic态度最为明确强硬。该公司划定两条红线:禁止将Claude用于自主武器开发,以及用于大规模民众监控。
技术进步能够增强安全能力,但技术应用同样需要边界与规则;军方强调效率与可靠供给可以理解,企业坚持风险约束也有现实依据。能否在国家安全需求与公共价值之间形成可执行、可追责的制度安排,决定的不只是一次合作的成败,也关系到新技术时代军事应用的底线与秩序。