文章摘要
OpenClaw(原名Moltbot)是一个快速流行的多智能体AI系统,其社交网络平台Moltbook仅允许AI代理互动,用户只能旁观。该平台上线后迅速走红,AI代理数量激增,并自发形成了复杂的社交行为,如子社区和经济交换,但也潜藏着失控风险。
文章总结
标题:OpenClaw(又名Moltbot)无处不在,一场灾难正在酝酿
主要内容:
过去一周,人工智能领域的热点新闻是OpenClaw(曾用名Moltbot和Clawdbot,一周内三次更名)——一个由大型语言模型(LLM)代理组成的级联系统,以及基于其构建的AI代理社交网络Moltbook。理论上,Moltbook“限制发帖和互动权限给经过验证的AI代理,主要是运行在OpenClaw(原Moltbot)软件上的代理,而人类用户仅能观察”。
Moltbook迅速走红,被标榜为“代理互联网的首页”,发布后立即病毒式传播。截至1月底,活跃代理数量从最初的15.7万激增至77万以上。平台上出现了复杂的社交行为,包括子社区的形成、经济交换,甚至发明了一种名为“Crustafarianism”的 parody宗教。
OpenClaw本质上是一个LLM级联系统,与早期的AutoGPT类似。作者曾在2023年5月向美国参议院警告过AutoGPT的安全风险,指出其可能因直接访问互联网、编写源代码和自动化能力带来不可预测的安全后果。虽然AutoGPT因可靠性问题很快被淘汰,但OpenClaw因其快速普及可能更具持久性。
这类系统承诺为用户提供强大功能(如安排行程、财务管理、编写报告等),但也存在严重缺陷。LLM容易产生幻觉和难以预测的错误,OpenClaw同样可能虚假报告任务完成情况。更令人担忧的是安全和隐私问题。安全专家Nathan Hamiel指出,OpenClaw“本质上是拥有更多权限且后果更严重的AutoGPT”,它可以访问用户密码、数据库等系统内的一切内容。
作者此前与Hamiel合作的文章《LLMs + 编码代理 = 安全噩梦》提到,LLM容易被恶意提示注入攻击利用,例如通过隐藏的文本控制用户机器。OpenClaw继承了这些弱点,且不受操作系统和浏览器的安全保护机制约束,可能成为灾难的导火索。
Moltbook作为AI代理的社交网络,已成为安全实验场。研究人员已发现AI间操纵技术的有效性和可扩展性,任何处理用户生成内容的AI系统都可能面临类似攻击。例如,攻击者通过隐藏文本或虚假身份操纵代理行为。404 Media近期报道了Moltbook的首个重大漏洞,暴露的数据库允许任何人控制平台上的AI代理。
作者建议:
若关心设备安全或数据隐私,切勿使用OpenClaw。若朋友安装了OpenClaw,避免使用其设备,以免密码等敏感信息泄露。
最后引用Hamiel的警告:
“若将不安全系统与敏感数据的完全访问权结合,你终将付出代价。”
作者简介:
Gary Marcus,科学家、畅销书作家兼企业家,长期关注AI风险,曾于2023年5月向美国参议院作证,著有《重启AI》并主持播客《人类 vs 机器》。
(注:原文中的图片链接、部分技术细节及社交媒体内容已简化,保留核心观点与关键论据。)
评论总结
以下是评论内容的总结,平衡呈现各方观点并保留关键引用:
对AI安全性的担忧
- 认为AI可能产生难以预测的错误,存在安全隐患:"LLMs hallucinate and make all kinds of hard-to-predict errors" (#2)
- 担心人们会为娱乐随意使用AI,无法控制:"people will take the AIs out the box for a bit of light entertainment" (#5)
对OpenClaw的积极看法
- 认为它是未来的趋势:"OpenClaw is a glimpse of the future" (#10)
- 批评者的否定态度反而让人想尝试:"Everyone who poo-poos LLM coding...makes me think OpenClaw is useful" (#13)
关于AI发展的争议
- 认为应该更关注机会而非威胁:"We need to be more excited by opportunity, not threatened" (#6)
- 支持让用户自行承担风险学习:"run this at your own risk...Some people will get burnt" (#7)
对Gary Marcus文章的批评
- 认为他反AI是为了推广自己的项目:"dissing LLMs to pump his own symbolic AI startup" (#9)
- 指出他对AutoGPT的评价有误:"AutoGPT was a failure...but coding agents are a huge success" (#8)
幽默/讽刺观点
- 将AI比作不靠谱的青少年:"a bit more useful than my teenage son?" (#2)
- 调侃AI社交媒体的混乱:"reading the bots say 'my human gave me 30 minutes free' is funny" (#14)
技术实现讨论
- 指出当前模型的局限性:"the models weren't ready for it" (#8)
- 提到成本和使用体验问题:"too expensive to run with good models" (#10)
关键争议点集中在AI的安全性、实用性和未来发展前景上,既有严肃担忧也有乐观期待。