高帯域幅メモリ (HBM) の最初の反復は、スタックあたり最大速度 128GB/s に制限されました。ただし、大きな注意点が 1 つあります。物理的な制限により、HBM1 を使用するグラフィックス カードのメモリは 4GB に制限されています。

時間が経つにつれて、SKHynix や Samsung などの HBM メーカーが HBM の欠点を改善しました。最初のアップデートである HBM2 では、潜在的な速度がスタックあたり 256GB/s に倍増し、最大容量が 8GB になりました。 2018 年に HBM2 がわずかに更新され (HBM2E)、容量制限がさらに 24GB に増加し、速度も再び向上し、最終的にはチップあたり 460GB/s のピークに達しました。

HBM3 の発売後、速度は再び 2 倍になり、スタックあたり最大速度 819GB/s に達しました。さらに驚くべきことに、容量は 24GB から 64GB へとほぼ 3 倍になりました。 HBM2E と同様に、HBM3 にも別のミッドサイクル アップグレードである HBM3E が導入されており、理論上の速度がスタックあたり 1.2TB/s に向上します。

時間の経過とともに、消費者向けグラフィックス カードの HBM は、より競争力のある価格の GDDR メモリに徐々に置き換えられました。データセンターでは高帯域幅メモリが標準になりつつあり、職場のグラフィックス カード メーカーはより高速なインターフェイスの使用を選択しています。

さまざまな更新と改善が行われていますが、HBM はすべての反復で同じ 1024 ビット (スタックごと) インターフェイスを維持しています。韓国からの報告によると、HBM4 が市場に投入されると、これが最終的に変わる可能性があります。報道が真実であれば、メモリインターフェイスは1024ビットから2048ビットに倍増する。

理論的には、2048 ビット インターフェイスに移行すると、転送速度が再び 2 倍になる可能性があります。残念ながら、メモリ メーカーは HBM3E と比較して HBM4 で同じ転送速度を維持できない可能性があります。ただし、メモリ インターフェイスが増えると、メーカーはグラフィックス カードのスタックを少なくすることができます。

たとえば、NVIDIA の主力 AI グラフィックス カード H100 は現在、6 つの 1024 ビットの正常なスタック ダイを使用しており、6144 ビットのインターフェイスを可能にしています。メモリ インターフェイスが 2 倍の 2048 ビットになれば、NVIDIA は理論的にはチップ数を 3 つに半分にして同じパフォーマンスを得ることができます。もちろん、HBM4 が数年間は生産に入らないことはほぼ確実であるため、メーカーがどのようなアプローチをとるかは不明です。

現在、SKハイニックスとサムスンは、HBM4の生産を開始すれば「歩留まり100%」を達成できると考えている。これらの報道が真実であるかどうかは時間が経てば分かるので、このニュースは慎重に扱ってください。

アクセス:

京東モール