文章摘要
人工智能竞赛中难有道德典范,但Anthropic公司本周做出罕见举动:拒绝为美国政府开发自主武器和大规模监控系统,因此被列入供应链风险名单。这在大科技公司普遍追逐利润的背景下显得尤为突出,而OpenAI等企业仍在为军方提供服务。当前AI技术建立在数据剽窃基础上,虽短期内能为股东创收,却可能摧毁就业市场甚至威胁人类生存。
文章总结
在这场人工智能竞赛中,没有真正的道德赢家——但如果非要选一个,或许会是Anthropic。
大型语言模型技术建立在海量侵权数据之上。互联网开放数十年的全部成果被亿万富豪们窃取,转化成了可能摧毁数十亿工作岗位、终结全球经济甚至威胁人类文明的科技。但至少短期内,股东们(或许)能赚得盆满钵满。
这个领域本就没有道德领袖。但至少,开发Claude的Anthropic本周做出了惊人举动:他们公开对抗美国政府,激怒了特朗普当局。该公司被列为"供应链风险",遭联邦机构全面禁用。原因何在?Anthropic在声明中强调了两条底线:绝不允许将Claude用于自主武器或美国公民的大规模监控。
各国政府对AI监控技术垂涎三尺并不意外,但在这个行政道德日益沦丧的时代,像Anthropic这样的科技巨头敢于如此强硬地划清界限却出人意料。不过总有人会为金钱奔向道德深渊——比如山姆·奥尔特曼。
这位OpenAI首席执行官兼"兼职超级反派"迅速向美国国防部伸出援手,承诺提供ChatGPT等技术支持。尽管奥尔特曼在X上声称其模型不会用于大规模监控,但美国政府官员随即反驳称将用于"一切合法用途"。根据《爱国者法案》,在某些情境下对美国公民进行监控完全合法。
Anthropic坚持对技术用途的掌控权,而非依赖充满争议的法律解释。相比之下,奥尔特曼乐见政府决定技术部署方式——根据《爱国者法案》某些条款,这极易导致对公民的监控,无论是直接实施,还是作为监控外国公民的连带效应。
此举立即引发ChatGPT用户社区的强烈反弹,Reddit上涌现数千点赞的退订宣言。值得玩味的是,ChatGPT刚完成730亿美元的天价融资,投资方包括亚马逊、软银和英伟达。微软虽表态继续合作,却已在筹备自研模型。
遗憾的是,鲜有AI企业愿对监控和自主武器说不:谷歌去年删除了内部禁令;微软默许"人类最终扣扳机"的自主武器;亚马逊仅保留模糊的"负责任使用"条款;Meta积极争取国防合约;Palantir更是众所周知的支持者。
潘多拉魔盒已然开启。这些擅长文字模仿却连儿童谜题都常出错的AI模型,未来或许将决定你是否构成"国家安全威胁"。只要山姆·奥尔特曼们能保持富贵,他们似乎毫不在意——包括不在意你的命运。
评论总结
以下是评论内容的总结,平衡呈现不同观点并保留关键引用:
对AI竞赛的批评与辩护
- 批评者认为AI竞赛中无道德参与者,但有人反驳称许多研究者和小公司被忽视(评论1:"Plenty of researchers and smaller companies would disagree..." / "如果资金投给他们,情况或许不同")
- 另一观点认为AI被过度夸大,如ChatGPT只是"带人性化前端的搜索引擎"(评论3:"It's Google with human characteristics..." / "人们过度严肃看待AI")
技术细节与政治联想
- 对"Department of War"缩写(DoW/DoD)的争议(评论2/5:"应全大写" / "官方仍称DoD")
- 用户抱怨Claude字体设计,并担忧政治影响技术选择(评论4:"字体难以阅读" / "特朗普政府可能迫使谷歌出售YouTube")
公众认知与商业现实
- 指出普通人对AI公司争议无感,更关注供应链风险等议题(评论6:"普通人没听过Anthropic..." / "更关心供应链风险与爱国性")
- 用户表达品牌忠诚度(评论7:"我只用OpenAI API"),同时有人担忧公共资金被用于商业AI(评论8:"纳税人最终会为此买单")
关键矛盾点:AI发展的道德性、技术政治化与公众认知脱节。保留的英文引用均来自原始评论的高票或典型观点。