文章摘要
美国国防部威胁强制AI公司Anthropic为军方服务,因其拒绝将AI用于大规模监控和无人自主杀戮。国防部正试图分化Google和OpenAI员工,通过施压让公司妥协。我们作为这两家公司的员工发表联名信,表明团结立场,拒绝让AI技术被武器化,坚持人类监督的伦理底线。
文章总结
《我们拒绝分裂》公开信
核心内容: 1. 事件背景 - 美国国防部威胁援引《国防生产法》强制Anthropic公司为军方提供AI模型服务 - 同时计划将该公司列为"供应链风险"企业 - 这些举措是对Anthropic坚持道德底线的报复(拒绝将AI用于国内大规模监控和无人监督的自主杀人)
- 当前动态
- 五角大楼正与Google和OpenAI谈判,试图让它们接受Anthropic已拒绝的要求
- 军方采取"分而治之"策略,利用企业间的恐惧心理施压
- 联合声明
- 来自Google(527名)和OpenAI(84名)的611名现职员工联合署名
- 呼吁企业领导人坚守道德底线,共同拒绝军方的不当要求
- 强调AI不应被用于国内监控和自主杀人等违反伦理的用途
- 署名机制
- 支持现职和前员工匿名或公开署名
- 采用严格的身份验证流程(企业邮箱验证/工作证明等)
- 承诺24小时内删除匿名签署者的个人信息
- 组织说明
- 由关心AI滥用的普通公民发起,无任何政治或商业背景
- 网站采用加密存储和隐私保护设计
- 公开承认并修正了此前验证系统中的两处疏漏
(注:原文中长达数百行的署名列表已浓缩为数据摘要,保留代表性署名样本。完整名单可通过原网址查看)
评论总结
评论总结:
- 支持AI伦理立场
- 赞赏AI从业者坚持道德底线:"It's good that there are still empathic humans in the decision and build chain"(评论1)
- 认为应坚守底线:"Hold this line — there's got to be one somewhere"(评论4)
- 质疑企业道德承诺
- 认为公司最终会妥协:"The companies will cave in, like they always do. You don't fuck with power"(评论15)
- 指出利益驱动本质:"in the end, money is the only true God in this world"(评论11)
- 对政府干预的担忧
- 警告强制政策后果:"I'm sure nothing good can come out of strong-arming some of the brightest scientists"(评论20)
- 讽刺政府手段:"The DoD^HW will just use DeepSeek!"(评论8)
- 技术开放建议
- 主张全面开源:"It's time to open-source everything...Level the playing field"(评论17)
- 认为垄断更危险:"General intelligence should not be in the hands of a few"(评论17)
- 事件背景质疑
- 追问具体争议内容:"What, then, is this really about?"(评论25)
- 指出企业伪善:"funny how it's completely ok to surveil the entire world"(评论15)
关键分歧: - 支持方认为这是道德底线之争 - 反对方认为这是商业现实的必然结果 - 第三方建议通过技术开放解决矛盾
[注:所有评论均无评分信息,故未包含认可度分析]