マイクロンは、2024年初めにHBM3Eメモリの大量出荷を開始する計画を改めて表明し、Nvidiaが新しいメモリの主要顧客の1つであることも明らかにした。同時に同社は、自社の新製品が業界全体から大きな注目を集めていることを強調し、最終的にMicronのHBM3Eを使用することになる顧客はNvidiaだけではない可能性が高いことを示唆した。
マイクロンの社長兼最高経営責任者(CEO)のサンジェイ・メロトラ氏は決算会見で、「当社が発売したHBM3E製品は顧客から強い注目と熱意を得た」と述べた。
Micron は HBM 市場でわずか 10% の市場シェアしか持たず不利な状況にあり、ライバルの Samsung や SKHynix に先駆けて HBM3E (同社は HBM3Gen2 とも呼ぶ) を発売することは Micron にとって大きな意味を持つ。同社が HBM3E に大きな期待を寄せているのは明らかであり、これにより競合他社に先んじて(市場シェアを獲得し)、プレミアム製品を提供できる(収益と利益が増加する)可能性が高いからです。
通常、メモリメーカーは顧客の名前を明らかにしない傾向にあるが、今回Micronは同社のHBM3Eが顧客ロードマップの一部であることを強調し、特にNVIDIAを同盟者として挙げた。同時に、これまで NVIDIA が発表した HBM3E をサポートする唯一の製品は、H100 コンピューティング GPU と GraceCPU を使用する GraceHopperGH200 コンピューティング プラットフォームです。
「私たちは開発プロセスを通じて顧客と緊密に連携しており、AI ロードマップにおいて緊密に統合されたパートナーになりつつあります」と Mehrotra 氏は述べています。 「Micron HBM3E は現在、NVIDIA コンピューティング製品の認定段階にあり、HBM3E を活用した AI ソリューションの開発を推進します。」
Micron の 24GBHBM3E モジュールは、8 個のスタックされた 24G ビット メモリ モジュールをベースにしており、同社の 1β (1 ベータ) 製造プロセスを使用しています。これらのモジュールは最大 9.2GT/秒のデータ レートを実現し、スタックあたりのピーク帯域幅を 1.2TB/秒に高め、現在入手可能な最速の HBM3 モジュールと比較して 44% 向上します。同時に、同社は 8-Hi24Gbit ベースの HBM3E コンポーネントにとどまりません。同社は、8-Hi24GBスタックの量産を開始した後、2024年にさらに大容量の36GB 12-HiHBM3Eスタックを発売する計画を発表した。
マイクロンのCEOは、「2024年初めにHBM3Eの量産を開始し、2024年度にはかなりの収益を達成する予定だ」と付け加えた。
アクセス:
京東モール