文章摘要
当前人工智能发展已进入瓶颈期,单纯扩大模型规模带来的收益递减。现有大型语言模型虽取得显著成就,但在保持上下文一致性、持久记忆和复杂推理方面存在根本性局限。实现人工通用智能的关键在于构建综合模型、记忆、上下文和确定性工作流程的工程系统,而非继续训练更大规模的模型。AGI本质上是一个工程问题,而非模型训练问题。
文章总结
AGI是一个工程问题 | Vinci Rufus
人工智能发展已到达一个转折点。曾经通过扩大模型规模来提升性能的“规模法则”如今已显现出收益递减的趋势。尽管GPT-5、Claude和Gemini等模型取得了显著成就,但它们正面临无法通过简单扩大规模来解决的瓶颈。实现人工通用智能(AGI)的路径并非依赖于训练更大的语言模型,而是通过构建工程化系统,将模型、记忆、上下文和确定性工作流程结合,形成超越单个部分能力的整体。
AGI是一个工程问题,而非模型训练问题。
当前大语言模型的瓶颈
当前的大语言模型已触及明显的天花板。它们虽然在模式匹配和文本生成方面表现出色,但在跨会话的上下文一致性、持久性记忆以及复杂多步推理的可靠性方面存在根本性限制。这与半导体行业在21世纪初面临的时钟速度瓶颈类似,当时的解决方案并非强行提升处理器速度,而是通过多核架构重新设计。
AI正处于同样的转折点。 我们需要停止问“如何让模型更大?”,而应开始思考“如何让系统更智能?”
构建AGI的系统化方法
人类大脑并非单一的神经网络,而是由多个专门系统协同工作的集合,包括记忆形成、上下文管理、逻辑推理、空间导航和语言处理等。每个系统都有其特定功能,并通过复杂的反馈回路异步运作。
真正的AGI需要我们构建类似的工程化系统。以下是需要构建的关键组件:
上下文管理作为基础设施
当前模型的上下文处理能力仅限于数千个token,而人类的上下文跨度可覆盖多年的生活经验。我们需要构建能够实时检索、过滤相关信息,并维护跨会话一致性的上下文管理系统。记忆即服务
大语言模型缺乏真正的记忆,而是通过提示工程和上下文填充来模拟记忆。真正的AGI需要能够更新信念、整合信息、遗忘无关细节并生成元知识的记忆系统。确定性工作流程与概率组件的结合
AGI的突破在于构建能够灵活结合确定性框架和概率组件的系统,类似于编译器:整体流程是确定性的,但个别步骤可以使用启发式和概率优化。模块化的专用模型
未来并非依赖单一模型,而是由数百甚至数千个专用模型协同工作。语言模型在语言任务上表现出色,但在符号操作、视觉空间推理、时间规划和目标行为等方面表现不佳。我们需要构建能够将问题路由到特定领域优化模型的系统。
AGI的工程挑战
构建AGI是一个分布式系统问题,而非机器学习问题。 真正的挑战在于构建容错管道、监控系统、部署框架和测试基础设施,以确保系统在模型和参数组合下的可靠运行。这需要分布式系统工程师的深厚经验,而非仅仅依赖机器学习专家。
未来的构建方向
与其专注于扩大模型规模,我们应致力于构建支持通用智能的基础设施。以下是建议的路线图:
基础层
包括上下文管理服务、记忆服务、工作流引擎和代理协调层。能力层
包括专用模型控制、符号推理引擎、规划与目标管理系统以及跨模态集成系统。涌现层
真正的AGI将从这些组件的协同作用中涌现,而非依赖单一模型的突破。
前进的道路
实现AGI的路径并非通过训练更大的Transformer模型,而是通过构建能够协调数百个专用模型、维护跨会话一致性、执行确定性工作流程并提供生产级容错操作的分布式系统。这是一项需要数十年分布式系统经验的工程工作。
AGI的竞赛并非由拥有最大GPU集群的团队赢得,而是由那些懂得如何构建可靠、工程化AI系统的团队胜出。 我们现有的模型已经足够,缺失的是将这些模型转化为通用智能的系统工程。
我们一直在问错误的问题。 问题不是“如何实现下一个模型突破?”,而是“如何构建系统架构,使通用智能成为必然?” 答案是系统工程。AGI的未来在于架构,而非算法。
评论总结
评论主要围绕AGI(通用人工智能)的定义、实现路径及其挑战展开,观点多样且存在争议。以下是总结:
1. AGI的定义与科学问题
- 观点:AGI的定义模糊,且缺乏科学基础,当前的研究更多是工程问题而非科学问题。
- 论据:
- "AGI is poorly defined and thus is a science 'problem', and a very low priority one at that." (评论3)
- "We don't know if AGI is even possible outside of a biological construct yet." (评论7)
2. 工程与数据驱动的局限性
- 观点:单纯依赖工程改进或数据扩展无法实现AGI,需要更基础的科学突破。
- 论据:
- "No amount of engineering or model training is going to get us AGI until someone defines what properties are required." (评论3)
- "The idea that you would somehow produce intelligence by feeding billions of reddit comments into a statistical text model will go down as the biggest con in history." (评论15)
3. 规模与新兴能力的潜力
- 观点:尽管存在挑战,但通过扩大模型规模和优化工程,仍有可能实现新的突破。
- 论据:
- "We don't know until someone tries, and there is compelling evidence that there's still plenty of juice to squeeze out of both scale and engineering." (评论4)
- "Better models, bigger models, and infrastructure all help get to AGI." (评论29)
4. LLM(大语言模型)的局限性
- 观点:LLM虽然在某些任务上表现出色,但距离真正的AGI仍有很大差距。
- 论据:
- "All of our current approaches 'emulate' but do not 'execute' general intelligence." (评论25)
- "The reasoning/search/'memory' are the same building blocks of old, they look very similar to techniques of the past." (评论8)
5. AGI的伦理与哲学问题
- 观点:实现AGI后可能带来伦理问题,如自由意志与奴役的争议。
- 论据:
- "Everything you do from that point on that is not specifically granting it free will and self-determination is slavery." (评论26)
- "What if intelligence requires agency?" (评论20)
6. 对当前进展的乐观与质疑
- 观点:部分评论者对当前进展持乐观态度,认为已有初步AGI的雏形,但也有质疑声音。
- 论据:
- "Claude Code is what they would have imagined basic AGI to be like 10 years ago." (评论16)
- "Sam Altman have said they have achieved AGI within OpenAI. That's big." (评论14)
7. 未来路径的多样性
- 观点:实现AGI可能需要多种路径的结合,包括科学、工程和哲学思考。
- 论据:
- "It's a research problem, a science problem. And then an engineering problem to industrialize it." (评论21)
- "We need to stop giving a shit about AGI and just try to build progressively better systems and enjoy the ride." (评论11)
总结:评论者对AGI的实现路径存在分歧,主要集中在是否需要科学突破、工程优化的潜力、LLM的局限性以及伦理问题等方面。尽管部分人认为当前进展已接近AGI,但更多人认为仍需解决基础科学问题。