人工智能AGI未来学

当 AI 开始"思考":我们距离通用人工智能还有多远?

AGI 不是一个技术里程碑,而是一场关于智能本质的哲学拷问。从当前大模型的能力边界出发,探讨通向真正通用智能的路径与挑战。

2026年4月2日 · 约 8 分钟阅读

过去两年,“AGI 即将到来”的声浪此起彼伏。OpenAI、DeepMind、Anthropic——每一家顶级 AI 实验室都在某种程度上声称自己正在逼近那个历史性的时刻。

但什么是 AGI?更重要的问题是:我们是否真的知道自己在追求什么?

能力幻觉:大模型给我们的错觉

当 GPT-4 能够通过律师资格考试,当 AlphaFold 解开了困扰生物学家 50 年的蛋白质折叠问题,一种直觉会悄悄滋生:这些系统正在”理解”世界。

但这是一种诱人的幻觉。

大型语言模型本质上是极其复杂的模式匹配机器。它们的”知识”是统计关联,而非概念理解。当你问一个 LLM”为什么冰比水轻”,它能给出完美的答案——但如果你换一种方式问”为什么湖面会结冰”,它可能会以完全不同的方式作答,而无法意识到这是同一个物理现象。

这种缺乏因果推理的能力,是当前 AI 与通用智能之间最深的鸿沟。

三条通向 AGI 的路径

当前学界对如何达到 AGI 存在根本分歧,大致可分为三条路线:

1. 规模路线(Scaling Hypothesis)

这是 OpenAI 和许多大型实验室押注的方向:更多数据、更大模型、更多算力,涌现能力(emergent capabilities)会随之出现。

支持者认为,当前的局限只是量的问题,质变会在某个规模临界点爆发。

反对者则指出,这如同认为”造更高的梯子就能登上月球”——在错误的方向上加速,不会到达目标。

2. 架构路线(New Architectures)

另一些研究者认为,Transformer 架构本身存在根本缺陷,AGI 需要全新的计算范式——也许是神经符号混合系统,也许是受大脑启发的脉冲神经网络,也许是某种我们尚未发明的东西。

3. 具身路线(Embodied AI)

受认知科学启发,这条路线认为真正的智能必须根植于身体与物理世界的交互。一个从未”感受过”重力的系统,永远无法真正理解物理学——就像一个从未受过伤的人,无法真正理解痛觉。

我们应该害怕 AGI 吗?

这是一个被严重过度戏剧化、也被严重低估的问题。

超级智能的风险是真实的——但不是终结者式的暴力威胁,而是更微妙的价值对齐问题:一个比人类更聪明的系统,如何确保它追求的目标与人类的福祉一致?

这个问题没有简单答案。但有一点是清楚的:

我们需要在能力发展的同时,投入同等甚至更多的资源在安全性和对齐研究上。

我的看法

距离真正的 AGI,我们可能还有 10 年,可能还有 100 年,也可能已经在路上了。

但更重要的不是时间表,而是方向感——在追逐强大能力的同时,我们是否在认真思考:我们想要一个什么样的智能?它应该为谁服务?由谁来决定?

这些问题,远比”AGI 何时到来”更值得思考。


下一篇:技术加速主义(e/acc)的诱惑与危险