Hopper
基本信息
- 全称:NVIDIA Hopper 架构(H100 / H200 / H100 NVL / Grace Hopper GH200)
- 类型:自建业务(数据中心 GPU 代际)
- 命名:纪念计算机先驱 Grace Hopper(美国海军少将)
- 代际位置:Pascal (2016) → Volta (2017) → Ampere (2020) → Hopper (2022/2023) → Blackwell (2024) → Vera Rubin (2025-2026)
- 首次提及:2022-03 GTC 2022 - Hopper H100 与 AI Factories
- 提及次数:18 篇素材中 14 篇明确出现
一句话定位
Hopper 是 NVIDIA 历史上"最大的代际飞跃"——它是为 Transformer 而生的第一颗 GPU,2022 年 3 月发布、2022 年下半年量产时正好赶上 ChatGPT 引爆 AI 的 iPhone 时刻;它在两年时间里几乎以一己之力供应了全球大模型训练所需的算力,并且在 Blackwell 发布之后依然作为推理工作负载的主力继续运行。
发展历程
- 2022 年 3 月(GTC 2022 春):H100 发布。"Hopper H100 是史上最大的代际飞跃——大规模训练性能是 A100 的 9 倍,大语言模型推理吞吐量是 A100 的 30 倍。" 800 亿晶体管、台积电 4N 工艺。核心架构突破是 Transformer Engine——可以让 Transformer 网络加速 6 倍而不损失精度。"训练一个 Transformer 模型的时间可以从几周缩短到几天。"(2022-03 GTC 2022 - Hopper H100 与 AI Factories)
- 2022 年 9 月(GTC 2022 秋):H100 正式量产发货。这场 GTC 是"世界意识到大模型将改变一切"前夜的演讲——H100 作为"为 Transformer 而生"的芯片,还没遇到 ChatGPT 级别的需求海啸。两个月后 ChatGPT 发布。(2022-09 GTC 2022 秋 - H100 量产)
- 2023 年 3 月(GTC 2023):发布 H100 NVL——一对 H100 通过 NVLink 连在一起的变种,专门为 Hopper 处理 GPT 这类模型而设计。"一台标配 4 对 H100 NVL 的服务器,在做 GPT-3 推理时,速度可达 HGX A100 的 10 倍。" 同时发布 Grace Hopper (GH200) 超级芯片。(2023-03 GTC 2023 - AI 的 iPhone 时刻)
- 2023 Q1 财报(FY24 Q1):iPhone 时刻到来时,"Ampere 和 Hopper 已经在全量生产"。下季度指引 110 亿美元,市场被一夜重估。(2023-Q1 NVIDIA FY24 财报 - iPhone 时刻)
- 2023 Q2 财报(FY24 Q2):单季 135.1 亿美元。"H100 是由三万五千个零件组成的,重达 70 磅,总共差不多一万亿个晶体管。它需要机器人来组装。"(2023-Q2 NVIDIA FY24 财报 - 历史性爆发)
- 2024 年 3 月(GTC 2024):Blackwell 发布会上,黄仁勋拿起 Blackwell 实物对旁边的 Hopper 说:"It's okay, Hopper. 你是个好 GPU,好女孩。" 训练对比:"训练一个 1.8 万亿参数的 GPT 模型——换 Hopper 大概要 8000 颗 GPU、15 兆瓦、90 天。换 Blackwell 只需要 2000 颗 GPU、4 兆瓦、90 天。"(2024-03 GTC 2024 - Blackwell B200 发布)
- 2025 年 3 月(GTC 2025):黄仁勋说在 reasoning workload 下"Blackwell 是 Hopper 的 40 倍"。"我刚说过 Blackwell 开始放量的时候,Hopper 你送人都没人要。"——他自嘲是"chief revenue destroyer"。(2025-03 GTC 2025 - Blackwell Ultra 与 Vera Rubin)
- 2025 年 9 月 BG2 Pod:"Blackwell 是 Hopper 的 30 倍。假如别人的 ASIC 相当于 Hopper,你就要在那 1 GW 里放弃 30 倍的收入。"(2025-09 BG2 Pod - OpenAI 与算力未来)
- 2025 Q4 财报(FY25 Q4):Hopper 仍然是大量推理工作负载的主力——"老的 GPU 也没有闲着……负载可以跑在任何一代上"。(2025-Q4 NVIDIA FY25 财报 - Blackwell ramp)
- 2026 Q4 财报(FY26 Q4):MPS 已经把 Hopper 送上太空——"Hopper 已经在太空里了"。(2026-Q4 NVIDIA FY26 财报)
黄仁勋对 Hopper 的评价
"Hopper H100 是史上最大的代际飞跃——大规模训练性能是 A100 的 9 倍,大语言模型推理吞吐量是 A100 的 30 倍。"
——2022-03 GTC 2022 - Hopper H100 与 AI Factories"It's okay, Hopper. 你是个好 GPU,好女孩。"
——2024-03 GTC 2024 - Blackwell B200 发布"H100 是由三万五千个零件组成的,重达 70 磅,总共差不多一万亿个晶体管。它需要机器人来组装,因为 70 磅一个人根本搬不动。要测试它,你需要另一台超级计算机。"
——2023-Q2 NVIDIA FY24 财报 - 历史性爆发"我刚说过 Blackwell 开始放量的时候,Hopper 你送人都没人要。我是 chief revenue destroyer。"
——2025-03 GTC 2025 - Blackwell Ultra 与 Vera Rubin
体现的核心概念
- 加速计算 —— Hopper 的核心架构突破 Transformer Engine 是加速计算专用化的极致案例
- Extreme Co-Design —— Hopper 是为 Transformer 而生的;模型、算法、芯片同时设计
- AI 工厂 —— "AI 数据中心处理成山的连续数据,训练和精炼 AI 模型……公司正在制造智能、运营巨大的 AI 工厂"——这段定义就出自 H100 发布会
- 新摩尔定律 —— Hopper 比 Ampere 9 倍训练 / 30 倍推理,远超摩尔定律
关键数据
| 年份 | 数据点 | 出处 |
|---|---|---|
| 2022-03 | H100 发布,800 亿晶体管,TSMC 4N | 2022-03 GTC 2022 - Hopper H100 与 AI Factories |
| 2022 | 训练比 A100 快 9 倍,推理快 30 倍 | 2022-03 GTC 2022 - Hopper H100 与 AI Factories |
| 2022-09 | H100 量产 | 2022-09 GTC 2022 秋 - H100 量产 |
| 2023-03 | H100 NVL 发布;Grace Hopper (GH200) 送样 | 2023-03 GTC 2023 - AI 的 iPhone 时刻 |
| 2023 | H100 整机 70 磅、35000 零件、约 1 万亿晶体管 | 2023-Q2 NVIDIA FY24 财报 - 历史性爆发 |
| 2024 | 训练 1.8T GPT 模型:8000 GPU × 15 MW × 90 天 | 2024-03 GTC 2024 - Blackwell B200 发布 |
| 2025 | Blackwell 在 reasoning 上是 Hopper 的 40 倍 | 2025-03 GTC 2025 - Blackwell Ultra 与 Vera Rubin |
| 2026 | Hopper 已经在太空里运行(MPS) | 2026-Q4 NVIDIA FY26 财报 |
相关产品
- Ampere —— 上一代(Hopper 是 A100 的 9 倍训练 / 30 倍推理)
- Blackwell —— 下一代(在 reasoning 上 30-40 倍 Hopper)
- Grace Hopper (GH200) —— Hopper 与 Grace CPU 通过 900 GB/s NVLink chip-to-chip 合体
- DGX —— DGX H100 是 Hopper 时代的整机柜旗舰
- NVLink —— H100 NVL 把两颗 H100 用 NVLink 连成一个推理单元
- Transformer —— Hopper 的 Transformer Engine 是为它专门设计的