前谷歌 X 首席商务官 Mo Gawdat 最近在短视频里扔了颗炸弹:2027 年起,人类将进入长达 12 年的 AI "地狱期"。就业崩塌、社会撕裂、意义危机、秩序失效、真实沦陷——五重暴击,打得人毫无还手之力。
听起来很吓人。
但说实话,我刷到这条视频的时候,第一反应不是恐惧,而是一种熟悉的疲倦——"又来了。"
Mo Gawdat 的预警完美符合"科技焦虑"的黄金模板:
一个大人物(前谷歌高管 ✓),一个精确的时间节点(2027 ✓),一套灾难性的预测(五大冲击 ✓),以及一个光明的结尾(熬过去就好了 ✓)。
这套叙事逻辑,和过去二十年里无数"XX 将在 Y 年内颠覆一切"的预测如出一辙。从区块链要消灭银行,到元宇宙要取代现实,再到自动驾驶要让所有司机 2020 年前失业——这些预言的共同特点是:方向大致对,时间表基本错,恐惧被精确包装成了内容产品。
所以,Mo Gawdat 也在贩卖焦虑吗?
大概率,是的。
但问题是——这次焦虑本身,可能是对的。
我按自己的体感给这五项打个分。
就业崩塌:七分真。 AI 正在系统性地蚕食知识型工作。不是"可能",是"正在"。但"几乎不创造等量新工作"这个判断过于绝对。每次技术革命都创造了当时人无法想象的新岗位。区别在于:这次的空窗期可能特别长,过渡特别痛苦。
社会两极化:六分真。 "中产消亡"不是 AI 独创的故事,这条趋势在 AI 之前就已经在加速。AI 会加剧它,但把所有锅甩给 AI 是偷懒。真正的问题是分配机制没跟上技术变化——这是制度问题,不是技术问题。
意义危机:八分真。 这是我最认同的一点。当"我能做什么"被 AI 全面回答之后,"我为什么存在"就变成了悬在每个人头上的问题。这不是 12 年后的事,这是现在就在发生的事。 我身边已经有不少工程师在问:"如果 AI 能写比我更好的代码,我的价值是什么?"
秩序失效:五分真。 社会契约确实需要重构,但人类制度的适应性往往被低估。税收、分配、教育体系会变,但不会"全面动摇"——更可能的路径是缓慢的、痛苦的、充满妥协的渐进改革。没有"崩塌"那么戏剧化,但也没有"不变"那么乐观。
真实沦陷:九分真。 深度伪造和信息茧房已经是现实。这不是预言,这是新闻联播。
Mo Gawdat 的核心结论我倒是同意的:AI 不是威胁,旧秩序与价值体系才是瓶颈。
但我想补一句:旧秩序之所以是瓶颈,不是因为它不好,而是因为它是为一个正在消失的世界设计的。
工业时代那套教育→就业→退休的三段式人生模型,确实接不住 AI 时代的冲击。但这不意味着我们需要"熬过 12 年地狱"。我们需要的是——现在就开始改变。
Mo Gawdat 说人类要从"执行者"升级为"方向定义者"。说得对,但太抽象了。
翻译成大白话:别再卷"做得快",开始卷"想得清"。
提出好问题比给出好答案更值钱。设定正确的目标比高效地执行更稀缺。理解人性比理解算法更不可替代。
我也用 AI 工具,我也在加速这个趋势。所以我不会假装中立。
但正因为身在其中,我可能有幸比大多数更清楚一件事:AI 没有你想象的那么神,也没有 Mo Gawdat 说的那么魔。 它是一个极其强大的工具,但它不会自己造成"地狱"。造成"地狱"的,是我们面对变化时的犹豫、拒绝、以及争抢。
12 年地狱期?也许。
但如果我们现在就开始认真对待这些问题,而不是等到被动挨打——地狱期可以更短,阵痛可以更轻。
Mo Gawdat 的预言不是预言。它是一个提醒,包装在焦虑里,裹着流量的糖衣。
剥开糖衣,提醒本身值得听。