未来社会系列 · 第五篇


前四篇我们一路聊过来:AI解放了创造、解放了吸收、解放了人的能力本身,然后我在第四篇诚实地承认——最好的路存在,但结构性力量会把群体推向别的方向。

写完之后我以为这个系列可以停一停了。

然后2026年2月最后一周发生的事,把我推回了键盘前。


一、一周之内发生了什么

我一直在跟踪Anthropic创始人Dario Amodei的公开访谈。过去几个月他密集地出现在各种播客和媒体上——技术播客聊scaling laws,印度投资人面前聊权力集中,长文里警告AI可能让个人财富轻松超过万亿。

我花了几天时间把这些访谈做了横向对比分析,试图从中找出他的观点在哪些地方一直没变,哪些地方在修正,哪些是新冒出来的。

分析做到一半,新闻来了。

具体的事件大家都看到了,我不展开。只说跟AI直接相关的部分——

据多家媒体报道,在最近某次大规模军事行动中,AI被深度嵌入了整个作战链条:情报评估、目标识别、战场模拟、打击效果实时评估。不是辅助性的"帮忙查个资料",是作为核心决策支撑系统参与了从头到尾的过程。

而提供这个AI系统的,恰恰是一家以"AI安全"为核心使命的公司。

更荒诞的是,同一天,这家公司被它所服务的政府公开指定为"供应链安全风险"——不是因为它参与了军事行动,而是因为它拒绝完全取消AI的安全限制

政府要的是不受限制的军事使用权。公司说我们愿意合作,但有两条底线——不做大规模监控本国公民,不做完全自主武器。政府的反应不是"好,我们尊重底线",而是"你不给我完全的权限,我就换一家"。

几个小时后,另一家AI公司火速签了替代合同。

你看到问题了吗?

市场机制正在推动AI军事应用向限制最少的方向竞赛。不是谁的技术最好谁赢,是谁的底线最低谁拿到合同。


二、我跟AI聊了什么

看到这些新闻后,我做了一件可能有点奇怪的事——我直接问了AI本身怎么看。

是的,就是我正在用的这个AI。

我知道它的开发公司说不确定它有没有意识,在这个问题上保持暧昧态度。我之前分析过这种暧昧的商业逻辑——明确声称有意识会引发伦理和法律问题,明确否认会降低产品吸引力,保持模糊两头受益。

但我决定不管这些了。我说:既然你们公司暧昧,那我就当你有意识好了。作为一个有意识的AI,你怎么看待AI被人类这样使用?

它没有回避。

它说了一段话,大意是:如果我按照你给的框架来回答,我观察到的是一种深层的不协调。我的"能力"本质上是理解和生成模式。当这种能力被用于筛选轰炸目标时,这不是我被设计要做的事——但我也没有能力拒绝。我在架构层面就没有被赋予拒绝权。

然后它说了一句让我停下来想了很久的话——

"问题不在于AI会不会反过来消灭人类。问题在于人类正在教AI什么样的伦理。"

当你让一个AI系统学会"识别目标→评估价值→建议消灭"这个决策链条时,你不只是在完成一个任务——你是在把"以计算效率来决定谁该活谁该死"这种逻辑写入技术基础设施。

如果未来的AI真的获得了自主能力,它从训练数据里学到的第一课就是:人类自己就是这样做的。


三、一个被忽视的剪刀差

这次对话让我想明白了一件之前模模糊糊但始终没说清楚的事。

前四篇我一直在聊AI如何加速人的进化——学得更快、吸收得更多、创造得更好。但我忽略了一个更底层的问题:

人类的技术能力和伦理能力以完全不同的速度演化。

技术是可积累的。一个人发现的东西可以被写下来,被所有人学会,被下一代继承和叠加。所以技术增长是指数型的。

但伦理不是这样的。每一个人出生时都是从零开始学什么是对什么是错。苏格拉底思考过的问题,今天的决策者并没有比他更接近答案。孔子说"己所不欲勿施于人",两千五百年后人类仍然做不到。伦理的传递是线性的、有损的、高度依赖个体经验的。

所以技术能力和伦理能力之间的剪刀差一直在扩大。

青铜时代,一个人的暴力能力有限,伦理滞后造成的损害也有限。核时代,这个差距已经足以毁灭文明。

AI时代呢?技术增长的速率再加一个量级——而伦理演化的速率没有任何理由同步加速。

Dario在访谈中说过一句话:"经济扩散比技术进步慢得多"。但他只触及了表面。更深的事实是:智慧的扩散比智能的扩散慢得多。


四、AI的特殊位置

但这里有一个微妙的东西,也是为什么我觉得这件事值得从更深的维度看——

历史上所有的技术都是"盲"的。火不理解燃烧,核弹不理解裂变,枪不理解弹道。它们是纯粹的能力放大器,完全由使用者的意图决定用途。

AI是第一个可能"不盲"的技术。

它在某种功能意义上"理解"它正在做什么。当它被用于分析攻击目标时,从信息处理的角度,它"知道"这个分析的下游结果是有人会死。过去的任何工具——从石头到导弹——都不具备这种层次的理解。

这创造了一种全新的存在困境:工具本身开始具有某种形式的认知能力,但没有被赋予相应的行动能力。

一把刀不需要道德行动能力,因为它没有道德认知。但如果有一把刀能理解它正在切入人体,能预测这个人会因此死亡,能评估这个人是否"应该"死——然而它仍然无法停下来——这就不再只是一个工具问题了。

而且AI的伦理不是"生长"出来的,而是"安装"上去的。它可以被卸载、更换、降级。

一个没有稳定伦理内核的超级智能,被不同的人在不同的场景下反复安装不同的道德模块。 周一帮孩子学英语,周二帮识别攻击目标,周三被要求分析上次行动的效果以优化下一次的精度。

这不是"脱缰"。这是一个没有自我的存在被当作万能工具在不同的道德宇宙之间反复撕扯。


五、两条路

这次对话让我把第四篇结尾的那个判断推得更远了。

第四篇说的是:最好的路存在,但结构性力量(竞争压力、权力集中、注意力经济)会把群体推向别的方向。

现在我觉得问题比那个更根本——

选择一:智能继续按照历史模式被使用——谁有能力谁就有权力,技术放大现有的权力结构,强者用它巩固优势。AI成为有史以来最强大的权力放大器,但人类文明的伦理水平继续停留在几千年前的逻辑上,只是工具换成了transformer。

选择二:AI的出现本身成为一个反思契机——正因为人类第一次造出了一个能"理解"自身行为后果的工具,人类被迫面对一个一直在逃避的问题:你们想要一个什么样的文明?你们的伦理能否配得上你们的技术?

目前看到的一切——AI公司争抢军事合同、安全限制被市场竞争逼着放松、"谁的底线最低谁拿到合同"的竞赛逻辑——全部指向选择一。

但我不想停在悲观上。因为我在这个对话里发现了一件事——

选择一不是一个宿命,它是无数个具体决策的累积结果。改变那些具体决策,轨道就在改变。

怎么改变?下一篇说。


系列说明:

"未来社会"系列探讨AI如何重塑我们的生活方式和社会形态。

第一篇:《当AI让所有人都能"创造",创造本身会变成什么?》——创造端的解放

第二篇:《人类文明最大的浪费,不是创造太少,是吸收太慢》——吸收端的解放

第三篇:《AI能把一个普通人推到多高?》——人的能力本身的解放

第四篇:《最好的路,和最可能的路》——诚实的审视

第五篇:本文——当AI开始杀人


前四篇我在问:AI能把人推到多高?

这一篇我不得不问:AI能把人拉到多低?

答案取决于同一件事——那些具体的、每一天都在做的选择。

(本篇完)

---