一个显而易见的事实是,我们正在经历一场智力的工业革命(这不是一个比喻)。正如蒸汽机将体力劳动从人体剥离并规模化,大语言模型正在将脑力劳动从人脑中剥离。它批量处理文字与图像,产出边际成本趋近于零的智力服务。
被混淆的概念
表面上看,AGI是”通用人工智能”———一种能执行任何智力任务的系统。但听听人们通常如何描述它:能持续学习,能自主决策,能在开放环境中适应,能拥有自己的目标。
这不是在描述一个工具。这是在描述一种生命。
生命是什么?是在熵增的宇宙中维持自身结构的能力。它必须实时处理新信息,否则就会被环境淘汰。它不需要外部指令就”知道”该做什么———因为它有利害关系,它会死亡。
在AGI的想象中,持续学习被视为必要条件。如果AI只能以固定版本运行,无法在环境中自我更新,它就只是一台复杂的机器,而不是那种能持续适应环境的智能。更进一步,即使这个系统能够做到某种意义上的”自主更新”,那它更新的方向由什么决定?如果方向是预设的(比如”更好地服务人类”),那它真的是自主的吗?如果方向是系统自己决定的,那这个”决定方向的机制”又是从哪里来的?
“智能”这个词里,暗藏着自主性、自我更新、甚至自我意识的期待。然而自主性似乎不是一种能力,而是一种存在论上的处境。生命之所以有”自主性”,是因为它有一个极其简单但无法被进一步追问的目标:继续存在。这不是被编程的,而是定义性的———不试图继续存在的东西,我们就不称之为生命。
这是一个深刻的混淆。我们以为在追求更强的智力,其实在想象一种生命。
机器与生命
大语言模型不是生命。
它不持续学习,不自主更新———它只有损失函数。它是训练完成后就冻结的系统。每隔几个月,工程师用新数据重新训练它,发布新版本。但模型本身不会在与用户的对话中进化。它没有记忆昨天,也不期待明天。
然而,这不影响它提供智力服务。
这里有一个微妙之处:虽然模型不能自我更新,但只要人类持续迭代版本,它就可以模拟AGI的效果。我们可以为它添加记忆组件并优化,从而让它获得记忆能力;同样,它不需要自己学习,因为工程师自有办法进行优化和训练;它不需要自主性,因为人类的意图已被编码在训练数据中。
这条路径的核心是规模化。回想知识图谱为何如此艰难———因为每一条规则都需要人类参与。那是手工业。而大语言模型把压缩这件事本身交给了机器。人类只需提供原始数据,压缩由GPU完成。这是工业化。
工业化的本质是:用巨大的固定成本换取几乎为零的边际成本。训练一个模型需要数十亿美元(当然现在或许只需要几千万甚至几百万即可),但一旦完成,它可以同时服务任意数量的用户。这正是蒸汽机对纺织业做的事。
一种已经熟知的解释:智力即压缩。它将杂乱无章的宇宙信息提炼成可预测的规律。对数据的完美压缩,就是对世界的完美理解。
这正是大语言模型在做的事———把人类产生的所有文本压缩成一组参数,用这组参数预测下一个词。只要算力足够,任何有规律的领域———语言、蛋白质、代码———都可以被工业化地抽取出”智力”。
但如果智力只是压缩,它和生命就是完全不同的东西。
压缩是对已有信息的处理,回顾性的。生命是在尚未完成的时间流中维持自身,前瞻性的。模型可以压缩莎士比亚的全部作品,但莎士比亚写作时面对的是空白的纸张———他不是在压缩什么,而是在创造尚不存在的东西。即使凭借精准的模仿,模型生成了莎士比亚在此情景下会生成的文本(正如现在的数字人所设想的那样),那这是一种创造吗?还是说这仍然依赖于那个创建这个「莎士比亚数字人」的人类决定采纳或销毁这份文本?
两条路径
现在我们可以清晰地看到,人类对”人工智能”的追求实际上分裂成两条完全不同的路径:
第一条:廉价的智力服务。 一种固定的、不会自我更新的系统,提供在效果上与人类智力难以区分的服务。它没有自主性,没有生命,没有”自己”。但它可以写文章、写代码、回答问题、做分析。它是工具,是基础设施,是像电力一样的公共服务。
第二条:新形式的智能生命。 一种能够持续学习、自主决策、拥有目标的存在。它不只是执行任务,而是有自己的利害关系。它会”在乎”某些事情。它是主体,而非客体。
这两条路径的混淆,造成了当前AI讨论中的大部分困惑。
廉价智力服务:清晰的时间线
第一条路径已经有了清晰的时间线。
现在(2025-2026): 大语言模型已经在文本生成、翻译、摘要、代码辅助、数据分析等领域提供”足够好”的服务。边际成本持续下降。对于大多数日常智力需求,机器已经可以胜任。
短期(2-3年): 可靠性问题将被大幅改善。多模态能力将非常成熟(正如现在处理文本和代码一样)。长程记忆和复杂任务的连贯执行将成为可能。智力服务将像云计算一样,成为可以按需调用的基础设施。
中期(5-10年): 与物理世界的交互将打通。机器人、自动驾驶、自动化工厂将获得”智力层”。智力服务的价格将下降到接近计算成本———几乎为零。
这条路径的终点不是AGI,而是智力的彻底商品化。就像电力一样,你不会问”这是真正的电吗”,你只关心它能不能点亮灯泡。智力服务也将如此———你不会问”这是真正的智能吗”,你只关心它能不能完成任务。
届时,人类社会对”智力”的定价将经历剧烈调整。过去需要二十年教育才能培养的专业能力,将可以被几美分的API调用替代。智力劳动的市场价格将被重新锚定。与此同时,信息的价值体系也将被颠倒:当分析可以被无限生成,对信息的智力加工将不再稀缺。于此相对的是,难以复制的真实经历将成为新的稀缺品———”I was there, I saw it”。
新形式的智能生命:模糊的路径
第二条路径没有清晰的时间线。甚至没有清晰的路径。
问题不在于技术能力———我们已经可以制造出在行为上模拟生命的系统。问题在于:我们不知道如何制造真正的生命,因为我们不完全理解生命是什么。
生命的几个可能的本质特征:
-
具身性:生命必须在物理世界中维持一个边界,处理真实的能量和物质流。大语言模型存在于服务器中,但它不”占据”那个空间———关掉服务器,它不会”死”,只是暂停。
-
时间性:生命在不可逆的时间中存在。每个选择都关闭其他可能性。大语言模型的每次输出都是无成本的试探———它可以生成一百个答案,选最好的那个。它不需要”赌上什么”。
-
自主性:生命持续地生产和维持自身的组成部分和边界。大语言模型不生产自己———它由外部的训练过程产生,由外部的硬件维持。
要创造真正的智能生命,可能需要解决的问题不是”更强的智力”,而是”如何让一个系统拥有真实的动机和目的”。这可能需要全新的计算范式———也许是与物理世界深度耦合的系统,也许是某种我们尚未想象的架构。
或者,这条路径根本不存在。也许”智能生命”只能通过进化产生,而非设计。也许生命是宇宙的一种涌现现象,而我们暂时没有理解这种涌现的机制。
我们不知道。
人类想要什么?
现在我们来到最深的问题:人类想要的是什么?是廉价的智力服务,还是新形式的智能生命?
这个问题可以被进一步追问:生命知道自己想要什么吗?
表面上,答案似乎是肯定的。生命有欲望,有目标,有追求。饥饿的动物知道自己想要食物,寒冷的人知道自己想要温暖。
但这只是生命的浅层。在更深的层面,生命似乎并不能”知道”自己想要什么———它只能被驱动去做某些事。
进化不是一个有目标的过程。它没有方向,没有终点,没有”想要”。它是一个筛选机制:能够存活和繁殖的结构被保留,不能的被淘汰。生命体的所有”欲望”———对食物的渴求,对交配的冲动,对安全的追寻———都不是生命”选择”的。
人类以为自己在追求幸福、意义、成就。但这些追求本身是从哪里来的?它们是人类选择的,还是被选择进人类的?
当我们说”人类想要AGI”,我们真正在说什么?
也许我们在说:人类想要更强大的工具,来满足进化安装在我们身上的那些欲望———舒适、安全、地位、繁衍。如果是这样,廉价的智力服务就足够了。我们需要的是更好的工具,而非新的生命形式。
但也许我们在说别的东西。也许人类的某些追求———对意义的渴望,对超越的向往,对”不仅仅是这样”的直觉———指向了进化框架之外的某种东西。如果是这样,我们想要的可能确实是某种新的存在形式———不是为我们服务的工具,而是与我们共存的他者。
问题是:我们无法确定哪种情况是真的。因为我们无法从内部区分”真正的渴望”和”被安装的欲望”。
这是生命的困境:它无法完全理解自己,因为用来理解的工具本身就是它想要理解的对象的一部分。
帕斯卡说,人是一根会思考的芦苇。现在,会思考不再是特权———机器可以做出所有看起来和思考一样的事情。工业革命之后,人类不再用体力定义自己,我们说:没关系,我们还有智力。智力革命之后呢?
也许我们将发现,”人之为人”的核心从来不是智力,而是别的什么———具身性,有限性,会死这件事本身。也许我们将陷入持久的意义危机,因为我们没有准备好新的答案。也许两者都会发生。
无论如何,一种没有生命的智能正在(或者说已经)降临。它不是我们,但它可以做我们能做的大部分事情。它会迫使我们重新理解自己。