Googleは、人工知能モデルのトレーニングと推論の両方に使用できるチップを何年にもわたって生産してきたが、2つのタスクを異なるプロセッサに分割しており、AIハードウェアの分野でNvidiaと競合するための最新の動きとなっている。 Googleは水曜日、第8世代テンソルプロセッシングユニット(TPU)にこの変更を加えると発表し、両チップは今年後半に発売される予定だ。

Googleの上級副社長兼人工知能およびインフラストラクチャ担当最高技術責任者のアミン・ワダット氏はブログ投稿で、「AIエージェントの台頭により、業界はトレーニングや展開のニーズに合わせて専門的にカスタマイズされたチップから恩恵を受けると信じている」と述べた。
今年 3 月、Nvidia は次期チップ製品を宣伝しました。これにより、チップ新興企業 Groq の 200 億ドル買収を通じて獲得したテクノロジーを利用して、ユーザーの質問にモデルが迅速に応答できるようになります。 Google は Nvidia の大顧客ですが、同社のクラウド サービスを利用する企業の代替手段として TPU も提供しています。
世界のトップテクノロジー企業のほとんどは、コンピューティング効率を最大化し、特定のアプリケーションシナリオのニーズを満たすために、人工知能に特化した半導体を開発しています。 Apple は長年にわたり、独自のニューラル ネットワーク エンジン AI コンポーネントを iPhone チップに組み込んで開発してきました。 Microsoftは今年1月に第2世代AIチップをリリースした。先週、Meta は、Broadcom と協力してさまざまな AI プロセッサを開発すると発表しました。
Google はこの傾向の先駆者です。 Googleは2015年にAIモデルの実行に自社開発チップの使用を開始し、2018年にはクラウドサービス顧客へのリースを開始した。 Amazon Cloud Technology は、2018 年に AI リクエストを処理するための Inferentia チップを発売し、2020 年に AI モデルをトレーニングするための Trainium プロセッサーを発売しました。
投資機関DADavidsonのアナリストらは昨年9月、TPU事業とGoogle DeepMind AIチームの合計価値は約9000億ドルだと推定した。
現時点では、Nvidiaに代わるテクノロジー巨人は存在せず、Googleは新しいチップの性能をAIチップリーダーの製品と比較すらしていない。しかし、Googleは、新しいトレーニングチップの性能は、昨年11月にリリースされた第7世代アイアンウッドTPUの2.8倍で、価格は同じであると述べた。推論チップのパフォーマンスが 80% 向上します。
Nvidiaは、今後のGroq3LPUハードウェアは大量のスタティックランダムアクセスメモリ(SRAM)を使用すると述べたが、この技術は今月初めに上場申請を提出したAIチップメーカーCerebrasも使用している技術である。 Google の新しい推論チップ (コード名 TPU8i) にも SRAM が搭載されています。シングルチップには384MBのSRAMが内蔵されており、その容量はIronwood TPUの3倍です。
Googleの親会社AlphabetのCEO、サンダー・ピチャイ氏はブログで、このチップのアーキテクチャは「数百万のエージェントを同時に実行するニーズを満たすため、コスト効率の高い方法で大規模なスループットと低遅延を実現する」ように設計されていると書いた。
Google AIチップの応用規模は拡大している。 Googleは、シタデル・セキュリティーズがGoogle TPUをベースにした定量的調査ソフトウェアを構築しており、米国エネルギー省の17の国立研究所すべてがこのチップをベースに開発されたAI共同科学者ソフトウェアを使用していると述べた。人工知能企業 Anthropic も、数ギガワットの Google TPU コンピューティング能力の使用に取り組んでいます。