我们在上一篇讨论到,随着AI以近乎为零的边际成本成为基础服务,智力在大规模贬值。对此,人们会怎么应对?


认知义肢 vs 认知委托

眼镜延伸了视力,轮椅延伸了行动力,AI延伸了思考。

但"延伸思考"和"延伸视力"之间有一个根本差异。

眼镜不改变你想看什么。你先有了"看清楚"的需求,然后戴上眼镜。摘掉眼镜,需求还在。工具服务于一个先于它存在的意图。这是义肢的本质:控制权留在使用者手里。你定方向,工具负责执行。

我把这叫做认知义肢——在你知道自己要什么的前提下,AI帮你更快到达。程序员知道要实现什么功能,用AI写代码。翻译知道要表达什么意思,用AI加速。方向盘在人手里。

但还有另一种模式。

你打开手机。没什么特别的意图,只是习惯。刷了半小时后,你对一件半小时前完全不知道的事产生了强烈看法。这个看法从哪来的?不是从你来的。算法一条一条喂给你,每条都经过优化,确保你停留、在意、形成态度。没有人强迫你。每一次滑动都是你的手指完成的。但你的意图——关注什么、在意什么、对什么愤怒——不是先于工具存在的。它是被安装的。

这就是认知委托。你不只是把执行交给了系统,你把"决定在意什么"也交了出去。

区别不在于谁按了按钮——两种模式下都是你按的。区别在于:按钮上的选项是你定义的,还是系统替你定义的。

问题是,两者之间的界限非常模糊。

你用AI思考一个问题。来回了一个小时。最终得到一个洞见——感觉是你自己的洞见。但回溯过程:AI提出了框架,你反应;AI调整,你追问;AI换了个角度,你觉得打开了。这个"洞见"是循环的产物。不是AI的,也不是你的。它没有单一作者。你没法倒回去,把属于自己的部分挑出来。

这种滑移是无声的。没有一个时刻你会觉得自己"让渡了控制"。你只是越来越习惯在AI提供的框架里思考,越来越自然地从AI预处理过的选项中做选择。

AI和人在融合。如果你不刻意观察,很难判断自己处在认知义肢和认知委托的哪个位置。

甚至这个想法本身已经过时。我们训练AI使它更好用,它的好用加深我们的依赖,依赖产生数据来训练更好的AI。

这里并不存在两个博弈的实体,我们已经变成一个系统。


不可逆的依赖

《黑客帝国》里有一段对话。锡安城的议员指着地下的水循环系统对尼奥说:这些也是机器,我们依赖它们。尼奥说:但我们控制着它们。议员回答:取决于你怎么定义"控制"。我们能关掉它们——但关掉的那一刻,整座城市就完了。

互联网能关掉吗?技术上能。但关掉一周,全球经济瘫痪。

金融系统能关掉吗?能。但没有人承受得起后果。

我们"控制"着这些系统,就像骑在一头狂奔的象上"控制"着这头象——它恰好往你想去的方向跑,因此一切看起来都在掌握之中。

AI正在加入这个"不可关闭"的清单。更特殊之处在于,AI是这些不可关闭清单中唯一「不可预测」的。

水管是可预测的。水从这里流到那里,管道是这样连接的,出了问题你知道去哪里找。但当数十亿个AI agent在系统中相互协作、相互博弈,它们共同产生的行为可能没有任何单个人——包括构建这些agent的工程师——能够完整理解。我们依赖一个不可预测的系统,名义上控制着它,但不知道你的干预会引发什么连锁反应。

人类需要空气、水、食物、住所。而这个系统需要的是,算力、电力、数据、带宽。这两套需求目前还高度重叠——AI运行在人类建造的数据中心里,用人类的电网供电。但当AI agent的数量是人类的成百上千倍,世界的基础设施会围绕谁来建设?

答案已经在显现。2025年,全球科技公司最大的资本支出流向了数据中心和芯片工厂。这些设施不是为人类建的。人类当然间接受益,但很明显的是:

但你无法关闭、无法完整理解、而且整个物理世界正在围绕它布局,那么“控制”听起来会很滑稽。

目前AI还不能自己制造芯片、自己建造数据中心、自己维修电网。它还需要人类的双手。但这是一个正在关闭的窗口,在未来20年,我相信能看到的是,上述这些也将由AI自己完成。


数字游乐园

这一切走到最后,会是什么样?

一种流行的回答是这样一副解放的图景:AI接管生产,物质极大丰富,每人领基本收入,人类有足够的自由地去追求自己想做的事。

这个回答的问题不在技术,在政治。大规模再分配需要掌权者有意愿分享资源。历史上这种意愿只在两种条件下出现:需要大众提供劳动力,或者怕大众造反。

AI在同时削弱这两个条件——劳动力正在被替代,监控和控制的成本正在下降。

更可能的走向已经有了雏形。

数字商品的边际成本趋近于零。文字、图像、代码、音乐、陪伴——AI生成这些几乎不花钱。但住房不是数字商品。食物不是。自然资源不是。物理世界的稀缺不会因为数字世界的丰裕而消失。

于是出现一个分层的世界。数字层近乎免费:无限的内容、娱乐、社交、AI陪伴。物理层照旧稀缺:住房、医疗、空间、自然资源,竞争和不平等都还在。基本收入也许会有,额度刚好够活,再加一张数字游乐园的门票。

动物园管理学里有一个概念叫"环境丰容"(enrichment):给笼中动物提供玩具、藏食游戏、模拟的狩猎场景,让它们保持心理健康。丰容不改变笼子的大小,不改变食物的分配权,不改变谁关着谁。它只是让被关着这件事变得更容易忍受。

数字层是丰容的。打开手机,你拥有人类历史上最丰富的娱乐和信息。关上手机,你可能租不起一套像样的公寓。

AI会把这个结构推到极端——数字层越来越丰裕,物理层的分配权越来越集中。

这是一个数字游乐园,是一个设计精良的环境:数字层面的自由遮住了物理层面的约束,大多数人在一个预设的范围内"选择"——而这个范围的设计者不是他们。


结语:效率、秩序与意义

展望更长的人类历史,文明常常被三种力量驱动:对效率的追求、对秩序的渴望、以及 对意义的构建。

对效率的追求迫使人类进行破坏性的创新。这种力不关心后果。石器部落不需要"同意"被青铜时代取代——拿石头的打不过拿铜剑的,这就够了。蒸汽机不需要纺织工人的许可。AI也不需要。

效率是文明发展最根本的引力。

效率提升伴随失控,而对秩序的渴望把人类从失控往回拽。每次效率撕开旧世界的口子,都有一股力量试图缝合——新的规则、新的制度、新的分配方式,让足够多的人觉得事情还没有彻底失控。农业革命后的缝合是神权:上帝安排了你的位置,不要追问。工业革命后的缝合是能力叙事:你的收入反映你的贡献,这是公平的。

意义是粘合剂。它弥漫在故事、信仰、日常习惯里,回答一个效率和秩序都触及不到的问题:这一切是为了什么?

但意义做的事情比"回答问题"更根本。它构造了一种东西,叫做"未来"。

农业时代的意义是侍奉神,死后有来世——这让眼前的苦难指向了一个"更好的将来";工业时代的意义是进步,明天会比今天好——这让劳动指向了一个"不断改善的将来"。;这些故事不只是心理安慰。它们把"接下来会发生什么"变成了"未来"。

没有意义,就没有"未来"——只有一连串没有方向的事件。

这三种力量有不同的时延。效率最快——它只需要竞争,不需要共识。秩序次之——缝合需要谈判、建设、时间。意义最慢——新故事只能从旧故事的废墟里长出来,而废墟需要先变成土壤。

这个时间差解释了文明史上大部分的灾难。工业革命的效率重组用了几十年。秩序的重建用了一百年——从最早的工厂法到福利国家。意义的重构也用了一百年——从基督教世界观的松动到世俗人文主义的确立。在效率已经翻天覆地、秩序和意义远远没跟上的那段真空里,发生了两次世界大战。

AI的效率重组可能需要十到二十年。

旧秩序正在失去说服力——"你的收入反映你的能力",当AI比大多数人更能干的时候,这句话还能让人接受吗?旧意义正在被拆解——"你的智力让你有独特的价值",当机器也会思考的时候,这个故事还讲得下去吗?

新的秩序和新的意义都还没有影子。

我们站在一个"未来"消失的时刻。明天当然会来,但那个把"明天"组织成"未来"的旧叙事,已经失效了。