NVIDIA H200 数据表
NVIDIA H200 Tensor Core GPU 全球最强大的GPU,用于增强AI和高性能计算(HPC)工作负载。
更高的性能和更大、更快的内存 NVIDIA H200 Tensor Core GPU通过革命性的性能和内存能力增强了生成性AI和高性能计算(HPC)工作负载。
基于NVIDIA Hopper™架构,NVIDIA H200是首个提供141GB HBM3e内存、带有4.8 TB/s带宽的GPU——这是NVIDIA H100 Tensor Core GPU内存容量的几乎两倍,内存带宽提高了1.4倍。H200的更大、更快的内存加速了生成性AI和大语言模型,同时在科学计算和HPC工作负载中实现了更好的能源效率和更低的总拥有成本。
高性能大语言模型(LLM)推理 在AI不断发展的背景下,企业依赖大语言模型来满足各种推理需求。当大规模部署以服务庞大的用户群时,AI推理加速器必须以最低的总拥有成本提供最高的吞吐量。H200在处理如Llama2 70B等大语言模型时,推理性能比H100 GPU提高了一倍。
主要特性:
加速高性能计算 内存带宽对HPC应用至关重要,因为它能加快数据传输并减少复杂处理的瓶颈。对于内存密集型的HPC应用,如仿真、科学研究和人工智能,H200更高的内存带宽确保数据可以高效地访问和操作,从而实现110倍的结果时间加速。
减少能源和总拥有成本 随着H200的推出,能源效率和总拥有成本达到了新的高度。这一尖端技术在与H100 Tensor Core GPU相同的功耗范围内提供了无与伦比的性能。更快且更环保的AI工厂和超算系统为AI和科学界带来了经济优势。
准备好开始了吗? 要了解更多关于NVIDIA H200 Tensor Core GPU的信息,请访问 nvidia.com/h200
技术规格
*初步规格,可能会有所变化。