文章摘要
2026年2月28日,美军空袭伊朗南部一所小学,造成约180人死亡。舆论焦点却误指向AI聊天机器人Claude是否参与目标选择,而实际使用的Maven系统鲜少被讨论。该系统曾引发谷歌员工抗议致合同终止,后由Palantir公司接手开发六年,成为美军现役目标锁定系统。(99字)
文章总结
2026年2月28日"史诗之怒"行动首日,美军对伊朗南部米纳布的Shajareh Tayyebeh小学实施空袭,上午课间至少两次击中校舍,造成175至180人死亡,其中多为7至12岁的女童。
这场悲剧迅速引发关于人工智能参与军事决策的争议。焦点集中在Anthropic公司开发的聊天机器人Claude是否参与了目标选定。然而事实是,整个行动由名为"Maven"的军事系统主导——这个八年前在硅谷引发谷歌员工大规模抗议的国防项目,现由Palantir公司运营,通过整合卫星图像、信号情报等数据实现快速目标识别。
调查显示,悲剧根源在于国防情报局的数据库未及时更新:这栋2016年就已改为学校的建筑仍被标记为军事设施。Maven系统的设计理念源自奥巴马时期的"第三次抵消战略",旨在通过技术优势弥补兵力不足。经过"猩红之龙"等军事演习测试,该系统将目标决策时间压缩至每小时1000个(平均每个3.6秒),相比2003年伊拉克战争时期2000人完成的工作量,现在仅需20名士兵操作。
该系统界面融合了企业项目管理软件与地图应用,采用丰田"看板"管理模式。其底层AI并非大语言模型,而是基于图像识别等成熟技术。尽管2024年Palantir增加了Claude作为情报摘要工具,但语言模型从未参与核心目标判定。
历史教训警示我们:从越南战争"胡志明小道"的传感器误判,到1999年误炸中国使馆的"循环报告"事件,再到2003年伊拉克战争50次精确打击却零命中目标的案例,军事决策系统长期存在自我验证的缺陷。英国军官约翰·法伊夫的研究表明,决策过程中必要的审慎环节恰恰是避免错误的关键。
Palantir首席执行官亚历克斯·卡普在《技术共和国》中宣称其系统实现了"无中介"决策,犹如蜂群般高效。但这种将官僚程序编码化的做法,实际上消除了人类判断的缓冲空间。当系统以每小时1000个目标的速度运行时,没有人会去核实谷歌地图上标注的学校信息。
这场造成近200人死亡的悲剧,本质上是人类决策的结果:有人决定压缩杀伤链,有人将深思熟虑视为延迟,有人为每小时千次决策贴上"高质量"标签,还有数百名国会议员拒绝终止这场未经授权的战争。将之归咎为"AI问题",不过是为这些真正的决策者提供了藏身之所。
(注:本文基于公开军事资料、企业演示文档和历史案例分析,部分作战细节因保密要求存在叙述局限。)
评论总结
以下是评论内容的总结,平衡呈现不同观点并保留关键引用:
AI决策中的人为因素
- 观点:AI仅是建议工具,最终决策权仍在人类手中
- 引用:"AI is suggesting but someone... still has to make the decision"(评论1)
- 引用:"When AI gets something wrong, it's the operator's fault"(评论13)
对媒体报道的质疑
- 观点:部分评论者认为《卫报》等媒体存在偏见或为AI行业辩护
- 引用:"The Guardian carrying water for the AI industry"(评论2)
- 引用:"this unknown Guardian contributor writes a missive against 'Luddites'"(评论7)
战争迷雾与信息真实性
- 观点:事件基本事实尚未明确,各方存在信息战行为
- 引用:"we don't know what actually happened... all parties are projecting narratives"(评论9)
- 引用:"IRGC is making claims that no other party can verify"(评论9)
AI在军事应用中的争议
- 观点:AI工具用于非紧急袭击时更应谨慎
- 引用:"There should have been a priority placed on getting the targets right"(评论12)
- 引用:"This was not a strike made in the middle of a war... had all the time to prevent it"(评论12)
责任归属问题
- 观点:人类应最终为AI错误负责,不能推卸道德责任
- 引用:"Human beings... have a fundamental issue with accepting responsibility"(评论15)
- 引用:"AI isn't an excuse for war crimes"(评论14)
事件性质争议
- 观点分歧:
- 认为属于系统性错误:"not a software/organizational/human error"(评论10)
- 怀疑存在故意行为:"The intentional murder of enemy children is a tactic"(评论19)
- 质疑目标选址动机:"Turning a military building into a girl's school"(评论16)
- 观点分歧:
关键数据引用:
- 战斧导弹成本:"$4 million each... $4 BILLION that has to be replaced"(评论8)
- 目标选择流程描述:"Three clicks convert a data point... into a targeting pipeline"(评论12)