好調な2026年第1四半期財務報告を発表した後、AMD CEOのリサ・スー氏は決算会見で、Agentic AI(エージェント人工知能)時代の到来により、データセンターのCPU使用率が前例のない高さにまで押し上げられていると述べた。この新しい傾向の下、単一のコンピューティング ノード内の CPU と GPU の数は、これまでの 1 対多から徐々に 1 対 1 に近づいており、将来的には CPU の数が GPU よりも多くなる可能性さえあると彼女は述べました。

アナリストからの質問に答える際、Su Zifeng 氏は、従来の AI トレーニングおよび推論クラスターは通常「1 つの CPU に 4 ~ 8 個の GPU」の構成を使用しており、CPU は GPU コンピューティング タスクのスケジューリングと開始を担当する「ホスト」の役割のほうが高いと指摘しました。 Agentic AI モードでは、多数の自律エージェントがホスト CPU に依存してステータスの更新、タスクのオーケストレーション、コラボレーションを継続的に実行する必要があり、これによりコンピューティング ノードの形式が根本的に変わります。
Su Zifeng 氏によると、エージェント数の急速な増加に伴い、CPU と GPU の比率は 1:1 に近づいています。彼女は、将来のクラスターで「非常に多数の」エージェントが実行される場合、単一ノード内に GPU よりも多くの CPU が搭載されることは十分に考えられるとさえ示唆しました。これは、過去数年間の GPU 主導によるコンピューティングの加速化の波に、「エージェント ワークロード」による CPU 需要の波が重なっていることを意味します。
いわゆるエージェント AI は、基本的に、大規模言語モデル (LLM) 上で複数の自律的な「エージェント」を実行し、複雑なタスク プロセスを自動的に完了します。たとえば、ソフトウェア開発シナリオでは、エージェントは自らコードをレビューし、変更を実装し、コンパイルが完了するのを待ち、新しいバグが発見された場合には修正を続けることができ、プロセス全体で人による介入はほとんど必要ありません。ただし、これらの並列実行エージェント タスクを調整、スケジュール、調整するには、システムは CPU に依存して継続的な制御および管理機能を提供する必要があります。
このようなワークロードの下では、CPU はもはや「GPU トレーニングまたは推論の開始」における単なる補助的な役割ではなく、Agentic AI システム全体の動作を駆動するコアハブとなっています。ますます多くのタスクが分割され、エージェントに委任されるため、GPU アクセラレーション コンピューティングが急速に拡大している時代であっても、CPU 使用率は非常に高いレベルにまで押し上げられています。レポートはAMDの声明を引用し、インテリジェントエージェントタスクによってもたらされる新たな需要の波に応えるため、同社は現在「提供できるほぼすべてのCPUをAI研究所やハイパースケールクラウドサービスプロバイダーに販売している」と述べた。
これは、将来の AI インフラストラクチャの設計において、CPU と GPU の関係が「マスターとスレーブ」からより同等、またはより CPU を集中的に使用する形に変化する可能性があることも意味します。チップ サプライヤーにとって、Agentic AI は GPU の需要を促進し続けるだけでなく、サーバー CPU 市場に新たな成長ラウンドを切り開くことも期待されています。