摘要 / 我的正文
Anthropic向加利福尼亚联邦法院提交了两份宣誓声明,反驳五角大楼关于该AI公司对国家安全构成“不可接受风险”的主张,并认为政府的案件依赖于技术误解以及在争议前数月谈判中从未提出过的主张。这些声明是与Anthropic针对国防部的诉讼回复摘要一同提交的,听证会将于3月24日由旧金山的Rita Lin法官主持。争议源于2月下旬,特朗普总统和国防部长Pete Hegseth公开宣布与Anthropic断绝关系,原因是该公司拒绝允许其AI技术不受限制地用于军事用途。提交声明的是Anthropic政策主管Sarah Heck和公共部门主管Thiyagu Ramasamy。Heck曾在奥巴马政府时期担任国家安全委员会官员,她亲自参加了2月24日Anthropic CEO Dario Amodei与国防部长Hegseth及五角大楼副部长Emil Michael的会议。Heck在声明中指出政府文件中的核心虚假陈述,即Anthropic要求对军事行动拥有某种批准权,她称这一说法不属实,且五角大楼关于Anthropic可能在行动中禁用或改变技术的担忧在谈判中从未被提出,而是首次出现在政府的法庭文件中,未给Anthropic回应机会。Heck的声明还提到,3月4日(五角大楼正式确定对Anthropic的供应链风险 designation的次日),副部长Michael给Amodei发邮件称双方在政府现在列为国家安全威胁证据的两个问题(自主武器和对美国人的大规模监控立场)上“非常接近”。而Michael在3月6日却在X上发帖称“国防部与Anthropic没有积极谈判”,一周后又对CNBC表示“没有机会”重启谈判。Ramasamy曾在亚马逊网络服务公司管理政府客户的AI部署,包括机密环境,他在Anthropic负责将Claude模型引入国家安全和国防领域,包括去年夏天与五角大楼宣布的2亿美元合同。他在声明中称,一旦Claude部署在政府安全的“空气隔离”系统中,Anthropic无法访问,没有远程终止开关、后门或推送未授权更新的机制,模型变更需五角大楼明确批准和安装,Anthropic甚至无法看到政府用户输入的内容。他还反驳了政府关于Anthropic雇佣外国国民构成安全风险的说法,指出员工经过美国政府安全审查,且据其所知Anthropic是唯一由获得许可人员构建用于机密环境AI模型的AI公司。Anthropic的诉讼称,对美国公司首次适用的供应链风险 designation构成对公司公开表达AI安全观点的报复,违反第一修正案;而政府在本周早些时候的40页文件中拒绝这一说法,称Anthropic拒绝允许所有合法军事用途是商业决策,非受保护言论,designation是国家安全决定而非对公司观点的惩罚。
关键要点
一句话结论
(可由AI生成:一句话讲清这条新闻对你意味着什么)
可借鉴点
(可由AI生成:这条新闻能迁移到哪些业务/审查/写作场景)
证据锚点
(如:判决法院/案号/专利号/关键时间点)
后续跟踪
(如:上诉进展/和解条款/监管动作/同类案件)
证据与引用
原文链接:https://techcrunch.com/2026/03/20/new-court-filing-reveals-pentagon-told-anthropic-the-two-sides-were-nearly-aligned-a-week-after-trump-declared-the-relationship-kaput/
来源:TechCrunch
原文时间:2026-03-21 01:40:28 抓取:2026-03-21 02:56:26
来源:TechCrunch
原文时间:2026-03-21 01:40:28 抓取:2026-03-21 02:56:26