Hacker News 中文摘要

RSS订阅

批准初步禁令令状——Anthropic诉美国战争部[pdf] -- Order Granting Preliminary Injunction – Anthropic vs. U.S. Department of War [pdf]

文章摘要

该文件是美国北加州地方法院关于Anthropic公司起诉美国战争部的初步禁令裁决。核心争议是Anthropic禁止政府将其AI产品Claude用于致命性自主武器或大规模监控,而政府认为应由其自主决定AI用途。法院裁定政府行为可能违法,但未就AI使用的公共政策问题作出判断。

文章总结

美国北加州地方法院裁定:初步禁令获准,Anthropic公司胜诉

案件背景
Anthropic PBC是一家专注于人工智能(AI)安全研究的公司,其开发的AI模型Claude被美国政府用于国家安全系统。Anthropic坚持要求政府在使用其技术时遵守两项限制:禁止用于大规模监控美国公民和完全自主的致命武器。美国国防部(Department of War, DoW)则认为,政府应自主决定AI技术的使用方式,而非受私营公司约束。

争议焦点
2026年2月,双方谈判破裂后,政府采取了三项措施:
1. 总统行政令:要求所有联邦机构立即停止使用Anthropic技术,并永久禁止与其合作。
2. 国防部长指令:要求任何与美军有业务往来的公司不得与Anthropic开展商业合作。
3. 供应链风险认定:将Anthropic列为“国家安全供应链风险”,此举通常仅针对外国敌对势力。

Anthropic认为,这些措施是对其公开批评政府政策的报复,违反了宪法第一修正案(言论自由)和第五修正案(正当程序),并提起行政诉讼,指控政府行为“武断且反复无常”。

法院裁定
1. 第一修正案 retaliation claim
- Anthropic的公开声明(如CEO关于AI安全的文章)属于受保护的言论。
- 政府措施的直接动机是惩罚Anthropic的立场,而非国家安全需求。例如,国防部长公开指责Anthropic“傲慢”且“试图胁迫政府”。
- 法院认定,政府行为构成对言论自由的非法压制。

  1. 第五修正案 due process claim

    • 政府在未提供任何事前通知或听证机会的情况下,永久禁止Anthropic参与联邦合同,侵犯了其程序性正当权利。
    • 供应链风险认定缺乏事实依据,且未考虑“更温和的替代措施”。
  2. 行政程序法(APA) claim

    • 供应链风险认定的法律依据(《美国法典》第10编第3252条)仅适用于防范“敌对势力的破坏行为”,而Anthropic作为国内企业,其行为不符合该定义。
    • 政府未遵循法定程序,如未向国会说明“为何无替代措施”。

救济措施
法院批准初步禁令,要求:
- 暂停执行总统行政令和国防部长指令。
- 暂停供应链风险认定,恢复Anthropic与联邦机构及国防承包商的合作权。
- 政府需在7天内决定是否上诉。

社会影响
此案引发对AI伦理与政府权力的广泛讨论。军事领袖和科技从业者提交的“法庭之友”意见书指出,政府的措施可能抑制AI安全领域的公开讨论,并损害军事系统的技术稳定性。

结论
法院认定,Anthropic很可能在实体诉讼中胜诉,且不采取禁令将导致其“无法弥补的损害”。政府的行为被判定为违宪且越权,初步禁令获准。


:本文根据法院判决书(43页)提炼核心内容,删减了程序性细节和重复论证,保留关键法律分析与裁定结果。

评论总结

总结评论内容如下:

  1. 支持初步禁令裁决

    • 评论1指出这是Anthropic的"全面胜利"(total victory),但最终需由最高法院裁定。
    • 评论3赞赏直接提供法院文件链接的做法:"Yes, more of this.(Direct, timely links...)"
  2. 对政府权力的批评

    • 评论2引用裁决书内容,批评政府将企业定性为"潜在对手"(potential adversary)的做法具有"奥威尔式"特征(Orwellian notion)。
    • 同条评论补充:"我们确实生活在奥威尔式的时代"(we live in Orwellian times)。
  3. 对法律程序的调侃

    • 评论4关注100美元象征性保证金(nominal bond of $100),形容这是"滑稽的支票"(goofy check)。
    • 评论5质疑文件中使用非正式名称"战争部"(Department of War),类比"用'蓝色巨人'起诉IBM"(named them "Big Blue")。

(注:所有评论均无评分数据)