文章摘要
Anthropic收到美国战争部信函,被认定为国家安全供应链风险。公司认为此举缺乏法律依据,将提起诉讼。信函适用范围较窄,仅限制客户在与战争部合作中直接使用Claude,不影响其他用途。相关法律旨在保护政府而非惩罚供应商,要求采取最小限制措施。战争部承包商的使用也不会受到全面限制。
文章总结
标题:关于国防部当前立场的声明
来源:Anthropic公司首席执行官Dario Amodei
3月4日,Anthropic公司收到国防部来函,确认我们被列为美国国家安全的供应链风险。我们坚持认为这一决定缺乏法律依据,并将通过法律途径进行申诉。
需要特别说明的是: 1. 该认定仅限制客户在与国防部签订合同时直接使用Claude系统的情况,不影响绝大多数客户正常使用我们的服务。 2. 根据《美国法典》第10编第3252条规定,此类供应链风险认定旨在保护政府利益,法律要求国防部长必须采用"限制性最小的必要手段"。
我们与国防部保持着建设性对话,探讨在遵守公司两项核心原则(禁止全自主武器和大规模国内监控)的前提下开展合作的可能性。我们为过去在情报分析、作战规划等领域的合作成果感到自豪。
关于近日媒体披露的内部文件: - 该文件撰写于总统宣布将Anthropic移出联邦系统、国防部长发布风险认定等突发事件当天 - 文件内容不代表公司官方立场,且当前形势已发生变化 - 公司从未授权任何人泄露该文件
现阶段首要任务是确保作战人员和国家安全专家在重大军事行动中不中断使用关键工具。我们将继续以象征性费用向国防部门提供AI模型和技术支持。
Anthropic与国防部在维护美国国家安全的核心目标上高度一致,未来所有决策都将基于这一共同前提。
(注:根据要求,已删除原文中与主题关联性较低的收购信息及相关链接部分)
评论总结
总结:
- 对Anthropic与政府合作的争议
- 支持方认为这是必要的国家安全合作:"我们为与国防部合作感到自豪,支持前线作战人员的应用如情报分析、作战规划等" (评论13)
- 反对方批评其道德立场:"你们根本不该有任何对话。他们是加沙实施种族灭绝的战犯" (评论17)
- 对"战争部"用词的敏感反应
- 批评者认为这是政治妥协:"使用'战争部'称谓表明已向最荒谬的治理形式投降" (评论7)
- 有人指出名称错误:"请使用正确名称:国防部?" (评论22)
- 科技公司军事化趋势的担忧
- 历史对比:"2007年科技公司普遍拒绝将系统用于战争,现在Anthropic却在找实用主义的例外" (评论8)
- 员工道德选择:"为这类业务工作的员工可以辞职,不必沾上鲜血" (评论10)
- 对公开信语气的评论
- 认为道歉没必要:"不明白Dario为何要为内部备忘录泄露道歉,这种撤回很奇怪" (评论3)
- 批评双重标准:"私营公司为'语气'道歉,而政府官员却每天撒谎而不受惩罚" (评论15)
- 对行业竞争的观察
- 认为存在舆论操纵:"OpenAI的水军试图淡化Anthropic的优势,阻止用户转换" (评论19)
- 用户行动的影响:"将订阅从ChatGPT转到Claude似乎发出了正确信号" (评论23)
- 对政治环境的讽刺
- 简单化解读:"有钱人又在互相争斗" (评论5)
- 对现状失望:"这变成了真人秀,再也没有成年人了" (评论16)
关键分歧: - 实用主义 vs 道德立场:"Anthropic想用实用主义理由寻求两个例外,而非道德立场" (评论8) - AI安全双重性:"政府认为Anthropic对他们不安全。他们要求监管却自食其果" (评论4)