美光宣布已开始批量生产其HBM3E解决方案,美光其首款24GB 8H HBM3E产品将会用于NVIDIA H200 GPU。宣布
美光宣布已开始批量生产其HBM3E解决方案,量产其首款24GB 8H HBM3E产品将会用于NVIDIA H200 GPU,用于英伟将于2024年第二季度开始发货。美光这一里程碑使美光处于行业的宣布最前沿,以HBM3E行业领先的量产性能和能效为人工智能(AI)解决方案提供支持。后续美光还将发布36GB 12H HBM3E产品,用于英伟带来更大容量的美光选择。
随着对AI的需求持续激增,对内存解决方案的量产需求与不断扩展的工作负载保持同步至关重要。美光的用于英伟HBM3E解决方案拥有卓越的性能,速度大于9.2Gb/s,美光可提供超过1.2TB/s的宣布内存带宽,为AI加速器、量产超级计算机和数据中心提供闪电般的数据访问。同时功耗降低了~30%,以最低的功耗提供最大的吞吐量,处于行业领先地位。拥有24GB大容量,使数据中心能够无缝扩展其AI应用程序。无论是训练大规模神经网络还是加速推理任务,美光的解决方案都能提供必要的内存带宽。
美光科技执行副总裁兼首席商务官Sumit Sadana表示:“美光凭借HBM3E里程碑实现了三重成就:上市时间领先、一流的行业性能和差异化的能效特性。AI工作负载严重依赖内存带宽和容量,而美光已做好充分准备,通过我们行业领先的HBM3E和HBM4路线图,以及我们面向AI应用的完整DRAM和NAND解决方案组合,支持未来AI的显着增长。”
去年7月美光就宣布推出业界首款带宽超过1.2TB/s、引脚速度超过9.2GB/s、8层垂直堆叠的24GB容量HBM3E(HBM3 Gen2),采用了其1β(1-beta)工艺制造,性能相比目前出货的HBM3解决方案提高了50%,每瓦性能是前几代产品的2.5倍,功耗比竞争对手SK海力士和三星的同类产品低了30%。