GTC 2024 盛况空前,NVIDIA 推出了下一代 AI 加速器—— B200 和 国标200 GPU,基于突破性的 Blackwell 架构构建。
这些处理器代表了人工智能计算的巨大进步,旨在解决现代工作负载日益增长的复杂性。
B200 采用单片设计,晶体管数量破纪录,而 GB200 采用多芯片方法,将多个 B200 的强大功能与 Grace CPU 相结合,实现无与伦比的性能。
这些 GPU 共同显着提高了处理能力和内存容量,为严重依赖人工智能的众多领域的进步铺平了道路。
单片奇迹 NVIDIA B200
NVIDIA B200 是一项工程杰作,拥有惊人的 2080 亿个晶体管。 这一非凡的壮举是通过其小芯片设计实现的,其中两个巨大的芯片无缝集成。
B200 是一个强大的计算引擎,与基于 Hopper 的前身相比,其 FP64 高精度计算性能提高了三倍。
也许最引人注目的是 B200 执行人工智能推理任务的能力。
NVIDIA 声称这款 GPU 的性能比 H200 提升了五倍。 这种性能飞跃对于部署大型语言模型 (LLM) 和其他严重依赖推理的人工智能应用程序具有重要意义。
对于科技巨头来说,以下是 Nvidia B200 的每一个技术细节:
规格 | 细节 |
建筑学 | 布莱克威尔 |
制作流程 | 台积电 N4P(定制 4 纳米级) |
晶体管数量 | 2080 亿(跨越两个小芯片) |
内存类型 | HBM3E |
内存容量 | 192 GB(8 x 24 GB 堆栈) |
内存带宽 | 8TB/秒 |
NVLink接口 | 1.8TB/秒 |
FP64 计算性能 | 比 H100 提高 3 倍 |
AI推理性能 | 比 H100 提高 5 倍 |
GB200 结合了 Grace 和 Blackwell 架构
GB200 通过超低功耗 NVLink 芯片间互连将两个 B200 GPU 的功能与一个 Grace CPU 结合起来,进一步深化了“超级芯片”的概念。
此配置可提供更令人印象深刻的性能和内存容量,专为最苛刻的人工智能工作负载量身定制。
GB200 的功能包括:
- 巨大的内存容量:旨在满足内存需求 万亿参数AI模型
- 高速网络:支持 NVIDIA Quantum-X800 InfiniBand 和 Spectrum-X800 以太网平台 超快 800Gb/s 速度
- 多节点可扩展性:GB200 构成了 NVIDIA GB200 NVL72 的基础,这是一种液冷机架级系统,可实现最高水平的计算强度
以下是 GB200 规格的简要概述:
规格 | 细节 |
建筑学 | 布莱克威尔 |
成分 | 2 个 B200 GPU + NVIDIA Grace CPU |
互连 | 900 GB/s 超低功耗 NVLink(芯片到芯片) |
内存容量 | 384 GB HBM3E |
总内存带宽 | 16TB/秒 |
网络支持 | NVIDIA Quantum-X800 InfiniBand (800 Gb/s)、Spectrum-X800 以太网 (800 Gb/s) |
系统配置 | GB200 NVL72(液冷,机架式) |
B200 和 GB200 的潜在影响遍及众多行业和应用。
它们强大的加速能力非常适合训练和部署大规模生成式人工智能模型,改变我们创作艺术、文本、代码等的方式。
B200/GB200 为自然语言处理和推荐系统等领域的增强服务提供支持。 研究人员还将获得药物发现、气候建模和材料科学等领域的精度和速度。
布莱克威尔规模
NVIDIA 同时发布了 DGX SuperPOD,该产品专为利用 GB200 Grace Blackwell Superchips 的强大功能而设计。 该交钥匙解决方案提供了一个优化的平台,可扩展生成式 AI 工作负载,并具有行业领先的可靠性。
AI加速的未来
NVIDIA B200 和 GB200 代表了人工智能计算领域的重大进步,并标志着强大的加速解决方案的新高水位。
这些具有里程碑意义的 GPU 凭借其性能和内存优势,有望推动创新并推动众多领域的发展。
特色图片来源:pvproducts/Freepik。
Source: NVIDIA刚刚推出了下一代B200和GB200 AI芯片