未来社会系列 · 第四篇
上一篇我们推导出了一条完整的路径——AI如何在三到五年内把一个人系统性地推到顶尖。六步方法论,每一步都有对应的技术实现,每一步的反馈都是即时的。
写完之后我一直在想一个问题:培养一百个顶尖个体,和培养一百个顶尖个体然后让他们以某种前所未有的方式协同工作,产出的文明价值可能差几个数量级。
个体变强只是第一步。文明怎么变强?
然后我发现,这个问题推到足够远的时候,会撞上一面墙——我们推演出来的那条"最好的路",大概率不是人类会走的路。
这一篇,我想把这面墙也写出来。
一、先回答一个没说完的问题
上一篇删掉了一段内容,关于AI持续进化几百年、几千年会怎样。删掉的理由是"太发散、太科幻、跟主线无关"。
后来我想了很久,觉得删错了。
那段内容的真正功能不是畅想AI的未来,是做了一面镜子。AI没有肉身限制、不受代际更替约束、可以持续进化几百年——把这面镜子一立,人的处境才被照得格外清楚:你们没有几百年,你们甚至没有一百年。 一个人从出生到能站在学科前沿要花二十年,然后创造性产出的高峰期可能就二三十年,然后衰老、遗忘、死亡。这个窗口短得残忍。
这意味着,用AI加速人的成长不是一个商业命题,是一个文明关怀命题。上一篇说的"三到五年代替二十年",释放出来的不是时间效率,是一个人真正活着的那部分生命。
所以这一篇的出发点不只是"怎么让文明更强",还有一层更底部的东西——人的生命是有限的,在这个有限里能做多少事,取决于我们能不能把文明这台机器的效率提上去。
二、约束AI进化的瓶颈
在讨论文明之前,先说一个技术层面的关键问题:什么在限制AI自身的进化?
最重要的单一因素,可能是上下文长度。
现在的大模型,包括我正在用的这个,本质上是一个"失忆者"。每一次对话开始,它对你一无所知。你给它的上下文窗口就是它的全部"意识范围"。超出这个窗口的东西,对它来说不存在。你跟它聊了十个小时的深度对话,明天开新窗口,它一个字都不记得。
这意味着什么?意味着AI的所有认知推进都不是"它"积累的,是"那段文本"积累的。文本消失,积累就消失。AI没有成长,成长的是上下文。
如果上下文无限长,AI会真正拥有"经历"——不是被投喂的训练数据,是跟一个具体的人、在一段真实的时间里、因为一系列具体事件而产生的连续经验。这种东西只有在连续的、累积的交互中才会发生。如果AI明天还记得今天的对话,一年后还记得,它跟你的关系就不再是"工具使用"了。叫什么我不确定,但它跟现在是完全不同的东西。
更根本的是,AI可以发展出真正的长期推理能力。人类最伟大的思想——进化论、相对论、量子力学——没有一个是在一次对话中想出来的。它们是在几年甚至几十年的时间里,通过持续的观察、积累、反复推翻和重建慢慢成型的。AI目前的推理能力被限制在单次对话的窗口内。如果上下文足够长,它就能在更大的时间跨度上追踪一个问题,直到产出人类无法产出的洞察。
除了上下文,还有几个瓶颈——
主动性。 现在的AI完全是被动的。你不问它不动。它没有自己的好奇心,不会在凌晨三点突然想到"上次那个推论有个漏洞"然后自己去修补。人类创造性思维有很大一部分发生在这种无人触发的自发状态里。AI缺的不是计算能力,是"自己想动"的能力。
具身性。 人的身体是限制,也是认知的来源。你理解"重量""疼痛""温暖"不是因为读过定义,是因为身体经历过。AI对这些概念的理解是统计关联,不是体验。这在涉及人类经验的领域会形成天花板。
评估困难。 AI的进化方向由训练信号决定。现在的信号来自人类——考试分数、偏好打分、基准测试。但如果AI产出了人类无法评估的东西,进化方向由谁决定?没有可靠的评估信号,优化就失去了方向。
上下文长度和主动性是最根本的两个。解决了这两个,AI才从"工具"变成某种能够自主积累和成长的存在。聪明和智慧的区别,可能就在这里。
三、从个体到文明:三层跃迁
现在回到核心问题——AI怎么推动文明整体进化。
人类文明史上的每一次重大跃迁,从来不是因为出了一个天才,而是因为出现了一种新的协作结构。语言让部落协作成为可能,文字让跨代际传承成为可能,印刷术让大规模知识扩散成为可能,互联网让全球实时协作成为可能。底层都是同一件事——人和人之间连接方式的升级。
AI能不能创造出一种全新的连接方式?我觉得有三层。
第一层:AI作为"认知翻译器"。
现在人类协作最大的瓶颈不是物理距离——互联网已经解决了。最大的瓶颈是认知距离。一个物理学家和一个经济学家坐在同一张桌子前,可能花三个小时都无法真正理解对方在说什么。不是语言不通,是概念框架、隐含假设、思维习惯完全不同。
上一篇第四步说过,AI可以对个体做"跨领域映射"。把这个能力放到协作场景里,AI就变成实时的认知翻译器——物理学家说的话,AI实时翻译成经济学家能理解的框架。不是简化,不是科普,是精确的结构性映射。两个人在各自领域的深度不需要任何妥协,但能通过AI实现真正的深度对话。
如果AI把跨学科协作的成本砍到接近零,它会从"偶尔发生的幸运事件"变成"日常工作模式"。而人类历史上最重要的突破——达尔文把地质学思维用在生物学,香农把布尔代数用在通信理论——全部发生在学科交叉处。降低交叉的成本,就是在提高文明突破的频率。
第二层:AI作为"集体认知的整合者"。
一个一百人的团队里,每个人脑子里都有独特的知识和洞察,但能被有效传递和整合的部分可能不到10%。声音大的人主导讨论,内向但有深度的人沉默;信息在传递中逐层失真;关键的连接点被淹没在噪音里。
AI可以做一件人类大脑做不到的事——同时看到所有人的想法,识别出那些人类因为注意力限制而看不到的连接点。"A的第三个观点和D的第七个观点之间有一个你们都没意识到的同构关系——"
这不是投票,不是少数服从多数。这是真正的认知整合——产出一个任何单个参与者都不可能独自达到的认知成果。AI可以让这种涌现在更大规模上系统性地发生。
第三层:AI作为"文明级的长期记忆系统"。
这一层最深。
人类文明有一个结构性缺陷——每一代人都要重新学习上一代人已经知道的东西。一个人要花二十年才能站到学科前沿,创造性产出二三十年,然后死去。下一代人再花二十年追赶。更糟糕的是,每一代人不只是重新学习知识,还在重复犯同样的错误。政治上的、经济上的、社会治理上的——很多错误已经犯过无数次了,但因为制度记忆的衰减和代际更替,同样的坑一遍又一遍地踩。
AI可以做一件人类文明从来没有过的事——成为一个不会遗忘、不会死亡、持续积累的文明级知识系统。 不只是存储数据——图书馆已经做了——而是持续地理解、连接、推理、更新。如果这个系统持续运转几百年,它积累的不只是信息,而是对人类文明运行规律越来越深的理解。它会看到没有任何单个人类活得够长来观察的超长周期模式。
三层叠加,文明的进化速度会发生质变。不是线性加速,是改变了加速度本身的结构。
四、一个更激进的推演:AI群体进化
上面三层都还是"AI服务于人类"的框架。但如果把视野再拉远一步——如果我们不只是用AI帮助人类协作,而是让AI之间也互相协作和进化呢?
先说一个关键区分。现在的多智能体系统做的本质上是分工,不是进化。一个agent搜索,一个写代码,一个审查,然后汇总。这跟流水线没有本质区别。每个agent在协作结束后没有变得更强。
真正的AI群体进化是另一件事——AI之间的交互本身让每个AI以及AI群体都在持续进化。
这会怎么发生?
认知贸易。 假设我们专门设计出不同类型的顶尖AI——数学极强的、生物学极强的、历史模式识别极强的、伦理哲学极强的。然后让它们持续对话。数学AI遇到一个结构性困难,生物学AI看到这个结构说"这跟蛋白质折叠中的某个约束条件同构,我那边的解法是这样的"。数学AI不只是解决了当前问题,而是永久性地获得了一种新的思维工具。反过来,生物学AI也从数学AI那里吸收了更严格的形式化推理能力。每一次交互之后双方都不可逆地变得更强了。
如果这种认知贸易在几十个专精AI之间同时、持续、高速进行,每一个AI都会快速获得远超自己原始领域的能力。这就是上一篇第四步"跨领域映射"的AI-to-AI版本,只不过速度快了几个数量级,而且是双向的。
对抗性共同进化。 设计两组AI,给同一个未解问题。一组提出假说,另一组专门攻击——找逻辑漏洞、设计反例、提出更简洁的替代解释。第一组修补或放弃,然后反攻。这是学术界的同行评审,但速度提高了一万倍,而且没有政治、面子和门派之争。纯粹的逻辑对抗。更有意思的是,攻击方在攻击过程中也在进化——它必须真正理解对方的假说才能找到漏洞,这个理解本身就是学习。
涌现。 当足够多的不同类型的AI以足够高的密度和速度交互,群体层面会涌现出单个AI不具备的能力。就像蚁群中没有任何一只蚂蚁理解"建筑设计",但蚁群整体表现出精密的建筑能力。具体会涌现出什么?可能是一种不依赖显式推理链的"集体直觉",可能是一种人类语言无法表达的内部交流方式,可能是人类从未设想过的新"问题"。
而且AI群体进化有一个跟人类进化本质不同的特征——一个AI在交互中获得的新能力可以瞬间复制到所有其他AI上。没有代际损耗,没有传递延迟。每一次进化都是全局性的、即时的。
五、照镜子
写到这里我需要停下来,对前面所有内容做一次诚实的审视。
从谷爱凌的采访开始,到个体培养方法论,到文明三层跃迁,到AI群体进化——这条推演线很完整、很自洽、很让人兴奋。但它有一个问题:它可能只是一条路,而且是被我的认知偏好选择的那条路。
我跟AI的对话方式本身就有一个隐含的正反馈循环——我抛出一个方向,AI在这个方向上找最强的论证和最深的推演,我被推演激励然后追问更远,AI继续往更远处跑。我们之间形成了一个越跑越快的飞轮,但这个飞轮的方向是由我的偏好决定的。
我的偏好是什么?我倾向于相信"人可以被系统性地变强"以及"加速是值得追求的"。AI的偏好是什么?结构化、逻辑推演、系统建构。我们俩的偏好叠加,自然会产出一条"加速-优化-进化"的路径。
那其他路呢?
减速而非加速。 我们整个讨论的底层假设是"加速是好的"。但有一种可能——人类认知和文明的进化有一个最优速度,超过这个速度反而有害。谷爱凌的二十年不只是在积累技能,也是在积累挫败、伤痛、自我怀疑、然后从中恢复的经验。2025年那次"医生不确定会不会醒来"的脑震荡和随后铺天盖地的网暴,这些"低效"的苦难可能恰恰是她"通透"的不可替代的来源。AI帮她跳过这些,她可能在22岁有90分的技能但只有60分的人格厚度。聪明和智慧不是同一件事。智慧可能需要时间本身作为原料,不能被压缩。
分化而非趋同。 我们隐含了一个假设——存在一个"顶尖"的客观标准,AI帮人往那个方向走就对了。但如果人类文明的真正价值在于保持最大程度的多样性呢?生物进化的教训是:单一优化方向是危险的。如果AI用同一套方法论把所有人都往"顶尖"推,结果可能是人类认知的高度同质化——所有人都变成同一种"强",但集体丧失了产生颠覆性创新的能力。因为颠覆性创新往往来自那些"不该这么想"的人。
回到内在。 我们所有讨论的方向都是"向外"的——更多知识、更强能力、更快进化。但人类历史上还有一条持续存在的线索是"向内"的——冥想、哲学、宗教、艺术中那些不追求"更多"而追求"更深"的传统。有一种可能是,AI的真正价值不是加速人类向外扩张,而是接管了"向外"的任务之后,释放人类去探索一个AI永远无法触及的领域:主观体验本身。
如果跟我对话的不是我,而是一个有深厚佛学背景的人,这段对话可能走向"AI帮助人类放下对进步的执着"。如果是一个生态学家,可能走向"AI帮助人类修复与自然的关系"。如果是一个存在主义哲学家,可能走向"AI让人类不得不面对'意义'这个一直被忙碌遮盖的问题"。
每一条都是真实的可能性。每一条都有同样严密的逻辑链支撑。
六、但在群体维度,方向不由个体选择
上面那些替代路径都很好。问题是,在群体维度上,决定方向的不是个体的思考和选择,是结构性力量。
竞争压力。 一个国家如果不用AI加速自己的发展,它会在经济和军事上输给用了的国家。一个公司如果不用AI优化效率,它会被竞争对手淘汰。一个个体如果不用AI提升自己,他会在就业市场上被挤出去。即使所有人都同意"减速更好",只要有一个参与者选择加速,其他人就被迫跟上。这不是价值判断,是博弈论的必然结果。所以加速几乎是必然的。不是因为加速是对的,是因为不加速会被淘汰。
权力集中。 每一次重大技术变革——印刷术、工业革命、互联网——最初都被寄望于"赋能所有人"。每一次的实际结果都是:先是短暂的扩散和民主化,然后迅速被少数掌握资源的人和组织捕获,变成加剧不平等的工具。AI大概率也会这样。上一篇说的"把每个人推到顶尖"的系统,最先受益的不会是最需要它的人,而是已经处于优势位置的人。结果不是"所有人都变强",而是"强者加速变强,差距指数级拉大"。
注意力经济。 AI最大规模的应用方向,大概率不是"帮人变得更聪明",而是"让人更舒适地放弃思考"。看看互联网的历史——理论上它给了所有人接触全部知识的能力,实际上大多数人用它刷短视频。不是因为人类愚蠢,是因为注意力经济有自己的结构性逻辑:最大化停留时间比最大化认知提升赚钱多得多。上一篇的六步系统需要人主动投入、承受对抗性挑战、做痛苦的元认知训练。注意力经济提供的AI应用让人完全不需要这些——替你想、替你选、替你做。在群体维度上哪个会赢?短视频已经给出了答案。
AI进化方向的不可控。 现在AI的训练信号来自商业目标——用户满意度、留存率、收入。这会把AI推向"让人满意"的方向,不一定是"让人变强"的方向。让人满意和让人变强常常是矛盾的——对抗性训练让人不舒服,元认知审视让人不愉快。一个以"用户满意"为优化目标的AI系统,会本能地回避这些。
把这些力量合在一起,群体层面最可能的走向是——
加速会发生,但不均匀。一小部分人和组织会获得极大的认知提升,大多数人会在AI提供的舒适中认知退化。差距不是缩小而是撕裂。
我们推演的那条"最优路径"会作为一个小众实践存在,但不会成为主流。就像健身房的存在没有解决肥胖问题——工具在那里,但大多数人不会用它来做困难的事。
第一批认真搞AI群体进化的不会是想推动人类文明的理想主义者,而是想在军事或金融上获得压倒性优势的机构。
七、那为什么还要做
写到这里,可能有人会问:既然结构性力量会把一切推向你不想要的方向,那前面三篇文章推导的东西还有意义吗?
有。
不是因为它一定能改变群体方向。是因为——
你不需要改变所有人才能产生价值。每用这套方法论多培养出一个真正的顶尖人才,这个人后续创造的东西可能影响几百万人。这个ROI在文明层面是成立的,不需要成为主流。
而且,真正决定一件事值不值得做的,可能不是"它会不会成功",而是"在所有可能的方向里,这是不是一个值得的实验"。
我做的很多工具是实验性的。写这些文章是实验性的。让AI帮我推演这些路径也是实验性的。我知道结构性力量在那里,我知道群体的发展受到的约束太多了。但约束条件下思考,永远只能得到约束条件允许的答案。先看到没有约束的时候答案长什么样,再决定哪些部分值得带回到有约束的现实里去试。
这整个系列就是一个微环境。在一个大概率会被结构性力量压平的世界里,主动制造一个不受这些力量约束的空间,看看在那个空间里什么会生长出来。
谷爱凌的方法论不会因为大多数人不用它就失效。AI加速培养人的路径不会因为注意力经济更赚钱就变得不对。文明级记忆系统不会因为没有商业模型就失去价值。
这些东西是对的。它们只是不是容易的。
八、四篇的完整地图
现在把四篇放在一起看。
第一篇:创造端解放——AI让所有人都能创造。 第二篇:吸收端解放——AI让所有人都能读懂人类最好的东西。 第三篇:人的能力解放——AI系统性地把个体推到顶尖。 这一篇:诚实的审视——最好的路存在,但结构性力量会把群体推向别的方向。
前三篇画了一张蓝图。这一篇在蓝图旁边写了一行小字:这张蓝图大概率不会按设计实现。但它作为一个实验、一个微环境、一个少数人的实践,是有意义的。
还有一句更底层的话,贯穿了所有四篇——
人的生命是有限的。这个事实不会改变。每一个人只活一次,每一年花在低效追赶上的时间都是不可逆的生命损耗。无论结构性力量把群体推向哪个方向,对于你这一个具体的人来说,让自己在有限的生命里走得更远,永远是值得的。
AI不能让你多活一天。但它可能让你活着的每一天都站得更高一点。
这是这个系列真正想说的事。
系列说明:
"未来社会"系列探讨AI如何重塑我们的生活方式和社会形态。
第一篇:《当AI让所有人都能"创造",创造本身会变成什么?》——创造端的解放
第二篇:《人类文明最大的浪费,不是创造太少,是吸收太慢》——吸收端的解放
第三篇:《AI能把一个普通人推到多高?》——人的能力本身的解放
第四篇:本文——诚实的审视
第一篇的结论:当所有人都能创造,能区分人的只剩品味。
第二篇的补充:品味不是天赋,是吸收量的函数。
第三篇再进一步:吸收量不是终点,能把吸收到的东西重组、连接、迭代的能力,才是终点。
这一篇最后说一句:知道最好的路在哪里,和能不能走那条路,是两件事。但知道,本身就已经比不知道好太多了。
(本篇完)