哥伦比亚特区上诉法院三法官小组驳回了AI公司Anthropic暂停美国国防部“供应链风险”标签的紧急动议。法院文件显示,政府在军事冲突中掌控AI技术的需求压倒了Anthropic可能面临的财务和声誉损害。该标签首次用于美国本土企业,直接禁止五角大楼承包商使用Anthropic的Claude模型。判决书直言,平衡天平倾向政府一方,一头是单一企业的有限损失,另一头是国防部在实战中锁定关键AI渠道的需要。
纠纷起于去年7月Anthropic与五角大楼签订合同,将Claude打造成首个获批用于机密网络的大型语言模型。谈判在2月破裂,五角大楼要求无限制军用Claude,Anthropic坚持拒绝用于致命自主武器和大规模监控美国民众。特朗普总统2月底下令所有联邦机构停用Anthropic产品,指责公司试图“强硬操控国防部”。3月Anthropic起诉特朗普政府,称这是非法报复。加州北区联邦法院一度颁布初步禁令,暂停标签并斥责特朗普指令“奥威尔式”。联邦采购法要求双轨诉讼,Anthropic同时在加州法院打宪政牌,在哥伦比亚特区上诉法院走法定程序。代理司法部长托德·布兰奇在X平台发帖称,此判决捍卫了军方准备就绪权。
这一败仗让Anthropic雪上加霜,标签生效期内,五角大楼承包商绕不开采购禁令。加密市场正值波动期,BTC现报$70,949(24h -1.09%),ETH报$2,178(24h -3.05%),整体情绪低迷。Anthropic拒绝军方无底线需求,凸显AI企业底线博弈。五角大楼急需AI强化军力,Claude这类模型本是热门备选,现在标签一锤定音,其他科技公司心有戚戚。Anthropic承认短期将承受不可逆伤害,法院也要求加快审理。代理司法部长强调,军权属于统帅和国防部,不是科技巨头说了算。整个事件敲响警钟,AI从民用到军用,监管铁腕正加速落地,企业让步空间越来越窄。