返回博客

老黄为什么反复说"别怕 TPU" — 因为他自己最怕

AINVIDIA黄仁勋算力GPU行业观察
封面

Dwarkesh 4 月 15 号放出的黄仁勋访谈,市场上分析的版本很多。大部分文章都在重复老黄说了什么 — TPU 不可怕、中国该卖、$1T 规模有供应链支撑。

我读完的感受相反。这次访谈信息量最大的不是内容,是老黄选择反复强调的事。

一个卖家反复说"你不该担心这件事",通常意味着市场正在担心它。他不是在告诉你真相,是在管理你的预期。把他的三句话倒过来读,你会看到完全不同的一个故事。

第一句:TPU 不是威胁

老黄的原话大概是:"Matrix multiplies are an important part of AI, but they're not the only part."

市面上大部分解读停在字面:"老黄说矩阵运算不是全部,所以 TPU 专门做矩阵运算的设计不够通用,GPU 仍然领先。"

这个解读把事情讲反了。

这句话的隐含承认是:TPU 在 matrix multiply 这条主线上已经达到足够好。不然老黄不会用"不是全部"这种措辞。如果 TPU 在矩阵运算上还不如 GPU,他的话会是"TPU 的矩阵运算也不够好"。用"not the only part"防御,说明矩阵这条线已经守不住。

他只能换战场。他把讨论从"单操作性能"拉到"算法创新空间",声称 GPU 的可编程性支持未来的 attention 变体、SSM、diffusion 等新架构,而 TPU 的固定张量处理器吃亏。

这个论点在技术上对,在商业上可疑。

技术上:没错,GPU 可编程性天然支持研究创新。Transformer 就是在 GPU 上长出来的。下一代架构大概率也会先在 GPU 上跑通。这个优势真实存在。

商业上:创新空间不等于商业空间。90% 的 AI 推理市场跑的是已经稳定的架构(transformer decoder-only),这部分工作量 TPU 能做得又便宜又快。老黄的价值是"未来架构的启动平台",TPU 的价值是"当前架构的部署平台"。两者的商业模式不冲突,但钱是分开的。

而"当前架构部署"这部分市场,是明确的大头。

GPU 塞入金库

第二句:我们应该卖芯片给中国

老黄花了访谈里非常多时间在这个话题上。金句:"Why would you want the United States to give up the world?" 听起来很有格局感。

把他的逻辑拆开看,其实是三层:

  1. 中国已经自给:7nm 制造能力、丰富的能源、全球 50% 的 AI 研究人员、华为创纪录的一年。禁售不会阻止他们,只会把他们推向自主生态。
  2. 美国失去第二大市场:禁售让美国企业放弃了一块巨大的蛋糕,长期看是自残。
  3. 开发者站队问题:中国开发者如果被逼在中国栈上跑,他们的技术习惯就会反过来影响全球。
  4. 这三条每一条单独看都有道理。但放在一起读,你会发现这是一家公司 Q4 财报会议的口径,不是一个国家战略论述

    老黄的真实担忧是什么?NVIDIA 从中国市场的收入正在流失,而且流失速度可能比公开披露的快。H20 芯片销售、中国大厂转向国产和 TPU 方案、中国 AI 研究成果不再依赖 CUDA 生态 — 这些信号过去 6 个月全在发生。

    "战略论述"包装的是"商业焦虑"。老黄不是不知道芯片是敏感战略物资。他在做的事情是把自己的商业利益和"国家利益"叙事绑定,用这个绑定去影响政策讨论。

    这是合法的、可理解的游说行为。但作为读者,我们要分清"这是利益相关方的论述"和"这是客观判断"。老黄的判断大概率不客观,因为他没法客观 — 他的股价取决于这个市场回来。

    第三句:我们锁了 $250B 供应链,撑得起万亿规模

    最耐人寻味的一句。老黄说 NVIDIA 已经跟上游(台积电、ASML、存储厂、封装厂)签下了 $2500 亿的承诺,"如果未来几年是万亿美元规模,我们的供应链能接住。"

    这句话可以读出两个完全不同的意思。

    正面读:NVIDIA 有规模、有资金、有议价权,上游愿意围着它转。这是护城河的终极版本 — 资本密集 + 生态锁定。

    反面读它不得不压 $2500 亿赌注

    如果需求真的长期确定增长,你不需要一次锁 $2500 亿。你按季度滚动,风险更低、资本效率更高。一次锁住是因为你担心中途有人抢

    抢的是谁?AMD(MI400 系列正在抢份额)、博通(与 Google/Meta 合作做定制 ASIC)、TPU v7/v8、Anthropic 自研或迁移、中国系(华为昇腾)的平替。老黄的 $250B 是一个"把上游锁死不让对手用"的防御性投资

    他后面那句"真正的瓶颈不是硅,是水电工和电工"也很值得玩味。这句话是在说:"我控不住我的供应链下游(数据中心、电网、冷却基础设施)"。当瓶颈从你能控制的东西(晶圆产能)转到你控不住的东西(电力、人力、土建)时,你的定价权就在下降。

    $250B 是一个高峰的信号,不是底部。

    我看到的账本

    切到我这边的视角。做企业 AI 产品,我每月都要看算力账单。过去 18 个月,几个明确的趋势:

    一、H100 / H200 的现货价格在回落。2024 年顶峰时候租一张 H100,$4.5/小时起。现在 $2.5-$3 能拿到相当充足的配额。NVIDIA 的毛利还在,但租赁端的利差在缩。这对 NVIDIA 的 $250B 赌注不利 — 上游签的是今天的价格。

    二、Google TPU v7 的每美元性能(perf/$)对 H200 已经是正向。对大部分 transformer 推理任务,TPU 便宜 20-30%。Anthropic 全面迁训、Google Cloud 很多 AI startup 优先选 TPU,都是这个原因。老黄把 Anthropic 用 TPU 解释成"100% Anthropic 自己的决定",这句话太轻了。Anthropic 不是一家 300 人的初创,他们是世界上最懂怎么训大模型的团队之一。他们选 TPU 不是爱好,是账算出来的。

    三、AMD MI400 的软件栈追上了。ROCm 过去几年是笑话,现在在 PyTorch 主流训练场景基本能用。我们测过,对一些确定的推理工作负载,MI400 的 TCO 比 H200 低 15-20%。份额还小,但天花板被打开了。

    这三件事合起来,你看不到老黄那个乐观的叙事。你看到的是一个老霸主进入"多供应商时代",价格权在慢慢移交。

    "单一垄断 → 双寡头 + 长尾"

    2022-2024 年的 AI 基础设施市场是 NVIDIA 的独奏。2026 年开始,这个市场进入一个新的结构:

    • NVIDIA:高端训练、前沿研究、新架构启动平台。仍然是领头。
    • Google TPU:大规模推理、稳定 transformer 工作负载。蚕食推理市场。
    • AMD:性价比训练和推理,HPC 场景的延伸。
    • 定制 ASIC(博通、Marvell、以及超大规模客户自研):特定工作负载的成本优化。
    • 国产阵营(华为昇腾、寒武纪等):中国本土市场的平替。

    这不是 NVIDIA 完蛋的故事。它依然会是最大的玩家。但"没有其他选择"这个状态结束了。

    对 NVIDIA 意味着什么?毛利率会从 70%+ 向 50-60% 收敛。绝对收入可能还在涨,但定价权这块护城河在变薄。对它的估值叙事有直接影响。

    电工在数据中心顶

    真正的新瓶颈:电和散热

    老黄访谈里说"水电工和电工"那句是对的,但他没有充分展开。

    AI 算力的下一个制约已经不是芯片产能。是电力接入和数据中心散热

    一家大厂要上 10 万卡规模的新训练集群,从选址到通电,今天在美国要 24-36 个月。在中国情况类似(限制不同,但总时长差不多)。这个时间里,芯片可以迭代 1-2 代。你 $10 亿美金的芯片订单,可能在电通上之前已经过时了。

    这对行业格局的影响:拥有大规模低成本电力的地方会抢走部分算力重心。内华达、得州、北欧、中东的沙漠电站、中国的西部大数据基地,都在下这盘棋。

    对初创意味着什么?不要再想着"我买最新 GPU 就能有领先"。大厂的上游锁定优势今天体现在"他们的电早就排好队了"。初创能拿到的是尾部产能 + 租赁。这不是坏事,只是意味着你的产品差异不能依赖硬件。

    我给我的团队立的规矩是:我们的产品必须在 GPU、TPU、AMD 三个平台上都跑得通。牺牲一点单平台优化收益,换抗供应链风险的能力。过去 18 个月这条规矩至少救了我们两次。

    回到老黄

    老黄是商业史上最强的销售之一,没有之一。他的公开言论要当市场沟通文本读,不是客观分析读。

    这次访谈里他的三句防守话,实际上告诉了我们三个正在发生的变化:

    1. 多 GPU 替代品的市场份额正在起来。
    2. 中国市场对 NVIDIA 的长期价值贡献在掉。
    3. 上游锁定是 $250B 级别的防御性动作,不是纯攻势。
    4. 这不意味着 NVIDIA 要垮。作为一家公司,它依然是世界上最会做 AI 硬件的。但"不可替代"这个标签,正在从它身上慢慢剥落。


      留一个问题:如果 AI 硬件这一层的毛利率开始收敛,那模型公司(OpenAI、Anthropic)的成本结构会怎么变?推理便宜 30% 意味着什么?会让 Claude 更便宜、还是让它们把钱更多投到数据中心自建?这个问题决定未来两年的行业格局。

      参考资料

      • Dwarkesh Patel, Jensen Huang – TPU competition, why we should sell chips to China, & Nvidia's supply chain moat. Dwarkesh.com, 2026-04-15.