美国防部长施压科技公司开放防务技术 军民关系平衡面临新考验

美国政府与科技企业在人工智能军事应用领域的矛盾近日公开激化;据华盛顿消息人士证实,五角大楼高层于2月24日向硅谷知名人工智能研发机构Anthropic下达最后通牒,要求其签署无条件技术授权协议。国防部长赫格塞思在会谈中援引《国防生产法》授权,强调国家安全需求应优先于企业自主权,其强硬态度引发科技界对行政权力扩张的担忧。 此次冲突的核心在于技术应用边界的界定。五角大楼主张,人工智能系统应像其他军用装备一样接受完全管控,并以波音公司军机采购案例作为类比依据。但Anthropic公司首席执行官阿莫迪明确表示,其开发的"Claude"模型存在可靠性缺陷,禁止用于公民监控和自主攻击决策。企业披露,在委内瑞拉军事行动中已出现技术误用情况,可能引发意外军事升级风险。 深层矛盾源于美国军政体系对新兴技术的差异化认知。国防部2023年《人工智能战略纲要》显示,美军计划在未来五年投入240亿美元推进智能武器研发,但硅谷多数技术企业仍坚持"不作恶"伦理准则。斯坦福大学智库分析指出,当前军用人工智能的误判率仍高达12%,远超国际安全阈值。这种技术局限性与军事需求的紧迫性形成根本性冲突。 事态发展可能重塑美国科技创新生态。若政府启动《国防生产法》,将开创强制征用民用技术的先例。布鲁金斯学会研究员汤姆森警告,此举或导致科技人才外流和研发投资萎缩。值得关注的是,微软、谷歌等企业已组建"负责任AI联盟",拟通过行业标准制约军事滥用。国会参议院军事委员会宣布将于3月举行听证会,审查人工智能军事应用的立法监管框架。

技术进步不等于更安全,特别是在军事领域。缺乏明确边界和有效约束的新技术可能带来更大风险。要平衡国家安全、企业责任和公众权益,需要建立可验证、可问责的治理框架。这不仅考验单次谈判结果,更检验制度对技术的掌控能力。只有将规则和透明度置于技术应用之前,才能避免以不可承受的代价换取所谓"效率"。