水曜日、AMD は、NVIDIA が独占するこの市場をターゲットに、MI300A チップや MI300X チップを含む、待望の新しい MI300 シリーズ AI チップをリリースしました。 AMDがリリースした新しいチップには1500億個以上のトランジスタが搭載されている。新しいチップのメモリはNvidiaのH100製品の2.4倍、メモリ帯域幅はH100の1.6倍です。 AMDは2027年のAIアクセラレータ市場規模の予測を8月と比べてほぼ2倍に増やした。

水曜日、AMD は、NVIDIA が独占するこの市場をターゲットに、MI300A チップや MI300X チップを含む、待望の新しい MI300 シリーズ AI チップをリリースしました。このようなチップは、AI トレーニングに含まれる大規模なデータセットの処理において、従来のコンピューター プロセッサよりも優れています。

この新製品の発売は、AMDの50年の歴史の中で最も重要なものの1つであり、注目の人工知能アクセラレータ市場におけるNvidiaの地位に挑戦することが期待されている。

AMDがリリースした新しいチップには1500億個以上のトランジスタが搭載されている。 MI300X アクセラレータは、最大 192GB の HBM3 メモリをサポートします。

MI300X のメモリは NVIDIA H100 製品の 2.4 倍、メモリ帯域幅は H100 の 1.6 倍となり、パフォーマンスがさらに向上しました。


新しい MI300X チップのパフォーマンスは、Nvidia の H100 と比較して最大 60% 向上します。 H100 (Llama270B バージョン) と 1 対 1 で比較すると、MI300X のパフォーマンスは最大 20% 向上しました。 H100 (FlashAttendant2 バージョン) との 1 対 1 の比較では、パフォーマンスが最大 20% 向上しました。 8 対 8 サーバーと H100 (Llama270B バージョン) の比較では、パフォーマンスが最大 40% 向上しました。 8 対 8 サーバーと H100 (Bloom176B) の比較では、パフォーマンスが最大 60% 向上しました。


AMDの最高経営責任者(CEO)リサ・スー氏は、人工知能ソフトウェアを訓練する能力という点では、新しいチップはH100と同等であると述べた。推論、つまりソフトウェアを実際に使用した後に実行するプロセスの点では、競合製品よりもはるかに優れています。

人工知能の人気に伴い、市場ではハイエンドチップの需要が高まっています。これにより、チップメーカーはこの有利な市場をターゲットにし、高品質の AI チップの発売を加速することができます。

AIチップ市場全体の競争は非常に激しいが、AMDは水曜日、AIチップ市場が急速に拡大すると信じて、将来の市場規模について大胆かつ衝撃的な予測を発表した。具体的には、人工知能(AI)チップ市場は2027年までに4,000億ドル以上に達すると予想されており、これは8月の予想1,500億ドルのほぼ2倍であり、AIハードウェアに対する期待が急速に変化していることが浮き彫りとなっている。


AMDは、自社のMI300シリーズが一部のテクノロジー大手の支持を獲得できると確信を深めており、これによりこれらの企業がAMD製品に数十億ドルの支出をする可能性がある。 AMDは、Microsoft、Oracle、Metaはすべて同社の顧客であると述べた。

同日のニュースでは、MicrosoftがAMDのAIアクセラレータ製品の需要を評価し、新製品の採用の実現可能性を評価する予定であることが示された。 Metaは、AMDが新たに発売したMI300Xチップ製品をデータセンターで使用する予定だ。オラクルは、クラウドサービスにAMDの新チップを採用すると発表した。

これまで市場は、AMDのMI300シリーズが2024年に約30万~40万台出荷されると予想しており、その最大の顧客はMicrosoftとGoogleだった。限定的なTSMC CoWoSの容量不足とNvidiaがすでに生産容量の40%以上を予約していなければ、AMDの出荷台数は上方修正されると予想される。

AMDのMI300Xアクセラレータのニュースが発表された後、NVIDIAの株価は1.5%下落した。 Nvidiaの株価は今年急騰し、市場価値は1兆ドルを超えたが、最大の問題はアクセラレーター市場をいつまで独占できるかだ。 AMD は独自のチャンスを見出しました。大規模な言語モデルには大量のコンピューター メモリが必要であり、これが AMD が利点であると考えている点です。

市場の優位性を強化するために、Nvidia は独自の次世代チップの開発も行っています。 H100 は来年上半期に H200 に置き換わる予定です。H200 は先月発売され、Llama2 上で H100 の 2 倍の速度で推論を実行できる新しい高速メモリを提供します。さらに、Nvidia は今年後半に新しいプロセッサ アーキテクチャを発売する予定です。