發生了什麼
NVIDIA 推出了B300 GPU,它是 B200 的後繼產品,與前身相比,可提供2 倍的人工智慧訓練吞吐量和1.5 倍的推理效能。 B300 基於精緻的 Blackwell 架構構建,具有增強的 Tensor Core 和擴充套件的 HBM4 記憶體。
為什麼它很重要
### 規格
| 特色 | B300 | B200 | H100 | |
|---|---|---|---|---|
| FP8 效能 | 40 次浮點運算 | 20 次浮點運算 | 4 PFLOPS | |
| HBM 記憶體 | 288 GB HBM4 | 288 GB 192 GB HBM3e | 192 GB 80 GB HBM3 | 80 GB |
| 記憶體頻寬 | 12TB/秒 | 8TB/秒 | 3.35 TB/秒 | |
| 貿易發展計劃 | 1200瓦 | 1000瓦 | 700W | |
| 互連 | NVLink 6 | NVLink 5 | NVLink 4 |
### 對人工智慧發展的影響
B300 的雙倍效能意味著:
- 更快的訓練:需要數週時間的模型現在可以在幾天內完成訓練
- 更大的模型:288 GB HBM4 可以在沒有模型並行性的情況下訓練更大的模型
- 更高的效率:每瓦效能比 B200 提高 30%
- 降低成本:相同工作負載所需的 GPU 更少
### NVLink 6 的優勢
NVLink 6 提供 3.6 TB/s 的 GPU 到 GPU 頻寬,從而能夠:
- 跨數千個 GPU 無縫擴充套件
- 減少分散式訓練中的通訊開銷
- 支援新的 NVLink 開關係統,在單個域中連線多達 576 個 GPU
## 定價和供貨情況
- B300 GPU:2026 年第 2 季度推出
- DGX B300 系統 (8x B300):400,000 美元以上
- GB300 NVL72(72 個 GPU):專為超大規模資料中心而設計
## 下一步是什麼
NVIDIA 的路線圖包括: - Rubin 架構 (2027):預計比 Blackwell 提高 4 倍 - Vera CPU:基於 ARM 的 CPU,專為 AI 工作負載設計 - 增強的軟體生態系統,更新了 CUDA、TensorRT 和 Triton
## 總結
B300 GPU 延續了 NVIDIA 在 AI 硬體領域的主導地位,並帶來了顯著的效能提升。 對於人工智慧實驗室和企業來說,升級路徑很明確:更高的效能、更多的記憶體和更高的效率,以滿足前沿模型訓練不斷增長的需求。