美国国防部直怼Anthropic:你们的“红线”威胁国家安全

2026-03-18 21:50:20

美国国防部这回玩真的了。周二晚上,他们直接在加州联邦法院递交了40页文件,把Anthropic贴上了“对国家安全构成不可接受风险”的标签。这不是随便说说,而是对Anthropic上个月提起的诉讼做出的正式回击。

事情得从去年夏天说起。Anthropic跟五角大楼签了个2亿美元的合同,要把自家AI技术塞进机密系统里用。合同谈得热火朝天,结果到了具体条款,Anthropic突然划了红线:坚决不让自家模型参与对美国公民的大规模监控,也不接受用于致命武器的瞄准或开火决策。理由很简单,他们觉得技术还没成熟到能承担这种后果。

五角大楼火了。私营公司凭什么指手画脚,告诉军队怎么用买来的技术?双方谈崩。去年底,国防部长皮特·赫格塞斯直接把Anthropic列为供应链风险对象,等于公开警告:你们这家公司靠不住。

Anthropic不干了,直接把五角大楼告上法庭。诉状里指控国防部侵犯第一修正案权利,属于意识形态惩罚。他们还申请临时禁令,要求法院先别让国防部执行这个“风险”标签。国防部这次的反击文件里写得明明白白:最担心的就是Anthropic会在关键时刻动手脚。“如果公司觉得自己的企业红线被触碰,就可能在作战行动前或行动中主动禁用技术,或者提前修改模型行为。”这话翻译过来就是:你们AI公司要是看不惯我们在战场上怎么用,随时可能给我们断电。

这份文件一出,圈内炸锅。OpenAI、谷歌、微软的员工,还有一堆法律权益组织,纷纷提交支持Anthropic的法庭之友简报。他们的逻辑其实很直接:你们国防部不满意就直接解约啊,何必搞这么大阵仗,给一家AI公司扣国家安全帽子?

现在舆论分裂得很明显。一边是军方和鹰派,认为私企不能对国家安全指手画脚,尤其是在涉及机密系统和潜在战场应用的时候;另一边是科技圈和公民自由派,觉得这事暴露了政府对AI控制欲的膨胀,一旦企业有道德底线,就直接被打成安全威胁。

Anthropic的红线其实不新鲜。去年他们公开说过,Claude系列模型内置了严格的安全机制,拒绝生成某些高危内容。这套机制让他们在商用场景里吃香,但也让军方觉得“不可控”。现在法庭文件把这个矛盾摊到明面上:AI公司的企业价值观跟军队的作战需求,到底谁该让步?

加密市场这边风平浪静。BTC现报$72,253(24h -1.74%),ETH现报$2,238(24h -3.73%),主流币种普遍回调,整体情绪偏谨慎。AI叙事本来是今年最热的赛道之一,但Anthropic这桩官司打得越凶,市场对AI+国防结合的预期反而降温。毕竟谁也不想投一家随时可能跟军方翻脸的公司。

下周二的初步禁令听证会成了关键节点。如果法官批准Anthropic的临时禁令请求,国防部的“风险”标签就得先搁置;反过来,如果被驳回,Anthropic的声誉和未来政府合同基本凉凉。无论结果如何,这场官司已经把AI时代最核心的矛盾摆上台面:技术公司的道德红线,碰上国家安全的铁腕,到底谁更有底气?

加密圈看热闹不嫌事大的人不少。有人调侃说,早知道AI公司还能跟五角大楼硬刚,去年是不是该all in Anthropic的估值。现在倒好,一边是2亿美金的国防合同,一边是国家安全黑名单,Anthropic算是把“高风险高回报”玩到了极致。

« Tally六年后正式关门 DAO治理赛道凉透了... SEC联手CFTC发重磅指引:多数加密资产不再算证券... »

相关资讯