发生了什么
NVIDIA 推出了B300 GPU,它是 B200 的后继产品,与前身相比,可提供2 倍的人工智能训练吞吐量和1.5 倍的推理性能。 B300 基于精致的 Blackwell 架构构建,具有增强的 Tensor Core 和扩展的 HBM4 内存。
为什么它很重要
### 规格
| 特色 | B300 | B200 | H100 | |
|---|---|---|---|---|
| FP8 性能 | 40 次浮点运算 | 20 次浮点运算 | 4 PFLOPS | |
| HBM 内存 | 288 GB HBM4 | 288 GB 192 GB HBM3e | 192 GB 80 GB HBM3 | 80 GB |
| 内存带宽 | 12TB/秒 | 8TB/秒 | 3.35 TB/秒 | |
| 贸易发展计划 | 1200瓦 | 1000瓦 | 700W | |
| 互连 | NVLink 6 | NVLink 5 | NVLink 4 |
### 对人工智能发展的影响
B300 的双倍性能意味着:
- 更快的训练:需要数周时间的模型现在可以在几天内完成训练
- 更大的模型:288 GB HBM4 可以在没有模型并行性的情况下训练更大的模型
- 更高的效率:每瓦性能比 B200 提高 30%
- 降低成本:相同工作负载所需的 GPU 更少
### NVLink 6 的优势
NVLink 6 提供 3.6 TB/s 的 GPU 到 GPU 带宽,从而能够:
- 跨数千个 GPU 无缝扩展
- 减少分布式训练中的通信开销
- 支持新的 NVLink 开关系统,在单个域中连接多达 576 个 GPU
## 定价和供货情况
- B300 GPU:2026 年第 2 季度推出
- DGX B300 系统 (8x B300):400,000 美元以上
- GB300 NVL72(72 个 GPU):专为超大规模数据中心而设计
## 下一步是什么
NVIDIA 的路线图包括: - Rubin 架构 (2027):预计比 Blackwell 提高 4 倍 - Vera CPU:基于 ARM 的 CPU,专为 AI 工作负载设计 - 增强的软件生态系统,更新了 CUDA、TensorRT 和 Triton
## 总结
B300 GPU 延续了 NVIDIA 在 AI 硬件领域的主导地位,并带来了显着的性能提升。 对于人工智能实验室和企业来说,升级路径很明确:更高的性能、更多的内存和更高的效率,以满足前沿模型训练不断增长的需求。